Claude Opus 4.7 foi lançado em 16 de abril de 2026. Em 48 horas, usuários no Reddit, Hacker News e X relataram a mesma coisa: prompts que funcionavam no Claude 4.6 de repente produziram resultados mais curtos, concisos e, às vezes, piores.

O modelo não ficou mais burro. Ele ficou literal. O guia de prompting do Claude 4.7 da Anthropic afirma isso diretamente: "Prompts escritos para modelos anteriores podem agora produzir resultados inesperados. Onde modelos anteriores interpretavam instruções de forma frouxa ou pulavam partes inteiramente, o Opus 4.7 leva as instruções ao pé da letra."

O Claude 4.6 adivinhava o que você queria dizer. O Claude 4.7 faz exatamente o que você diz — nada mais, nada menos. Essa única mudança quebra todos os prompts vagos que você tem usado. Se você é novo em prompts estruturados, dê uma olhada primeiro no nosso prompt engineering for beginners. Este guia aborda as 7 mudanças que mais importam e oferece correções concretas baseadas nas melhores práticas de prompting da Anthropic e nas notas de lançamento específicas do 4.7.

Principais Conclusões

O Claude 4.7 é mais forte que o 4.6. Mas ele parou de compensar prompts mal elaborados — o que explica em grande parte por que o Claude 4.7 parece pior no uso diário, mesmo com benchmarks melhores. Se sua saída parece pior, o problema é o seu prompt — não o modelo.

O Que Realmente Mudou no Claude 4.7?

A Anthropic ajustou o 4.7 para um comportamento mais previsível e preciso nas instruções. Isso é valioso para desenvolvedores construindo agentes de IA e pipelines de API onde você quer saídas previsíveis. O tradeoff é que o modelo é menos propenso a oferecer informações por conta própria ou expandir uma tarefa a menos que você peça explicitamente.

Três mudanças principais — mesmo fornecedor, padrões diferentes (quando você está escolhendo entre assistentes completamente, nosso ChatGPT vs Claude breakdown cobre tradeoffs entre modelos):

Comportamento Claude 4.6 (Antigo) Claude 4.7 (Novo)
Seguir instruçõesInterpretava de forma frouxa, preenchia lacunasLeva instruções ao pé da letra
Comprimento da respostaMais ou menos consistente independentemente da entradaAjusta saída à complexidade percebida da tarefa
Uso de ferramentasChamava ferramentas com frequênciaRaciocina mais, usa menos ferramentas
TomCaloroso, validativo, amigável a emojisDireto, opinativo, quase zero emojis
Níveis de esforçoMenos diferenciação entre níveisRespeita níveis de esforço estritamente — baixo esforço = saída mínima

Por Que Prompts Vagos Quebram no Claude 4.7?

"Revise este contrato" costumava dar uma análise abrangente. No 4.7, você recebe exatamente isso — uma revisão. Não uma avaliação de riscos, não classificações de gravidade, não sugestões de reescrita. Apenas uma revisão.

❌ PROMPT ANTIGO

Revise este contrato.

✅ PROMPT 4.7

Revise este contrato. Identifique riscos por cláusula. Classifique gravidade de 1-5. Sugira uma reescrita por cláusula arriscada. Retorne como tabela.

A correção: Nomeie cada saída que você quer. Nomeie a ordem. Nomeie os limites. Se você quer uma tabela, diga "retorne como tabela". Se você quer pontos de bala, diga "use pontos de bala". O 4.7 não vai adivinhar seu formato preferido.

Por Que o Claude 4.7 Retorna 8 Parágrafos para 'Resuma Isso'?

O Claude 4.6 dava mais ou menos o mesmo comprimento independentemente do tamanho da entrada. O Claude 4.7 calibra o comprimento da resposta com base na complexidade que julga da tarefa. Um documento longo com "resuma" produz um resumo longo. Se você quer 5 pontos de bala, precisa dizer "5 pontos de bala".

❌ PROMPT ANTIGO

Resuma este relatório.

✅ PROMPT 4.7

Resuma este relatório em exatamente 5 pontos de bala. Cada bala com menos de 15 palavras. Primeira palavra de cada bala: um verbo de ação.

A correção: Sempre defina o formato e o limite. "Menos de 200 palavras." "Exatamente 5 balas." "Máximo 3 parágrafos." O próprio guia da Anthropic diz: se você quer saída concisa, adicione "Forneça respostas concisas e focadas. Pule contexto não essencial e mantenha exemplos mínimos."

Por Que Instruções Negativas Não Funcionam no Claude 4.7?

Essa é a mudança mais contraintuitiva. "Não use jargão" não funciona bem no 4.7 porque instruções negativas são seguidas de forma muito literal — o modelo foca no que NÃO fazer em vez do que FAZER.

❌ PROMPT ANTIGO

Não use jargão. Não use buzzwords. Não soe como um marqueteiro.

✅ PROMPT 4.7

Escreva em inglês simples que um jovem de 16 anos consiga ler em voz alta. Use palavras curtas e concretas. Substitua "leverage" por "use". Substitua "scalable" por "funciona em qualquer tamanho."

A correção: O guia da Anthropic recomenda diretamente dizer ao Claude o que fazer em vez do que não fazer. Exemplos positivos mostrando o estilo de comunicação desejado são mais eficazes que instruções negativas.

---

📬 Está obtendo valor disso? Publicamos um mergulho profundo por semana sobre ferramentas e fluxos de trabalho de IA. Junte-se aos leitores que recebem no inbox →

---

Como Começar Todo Prompt do Claude 4.7?

"Você pode me ajudar com este e-mail?" é uma pergunta. O 4.7 pode responder "sim" e esperar. Verbos de ação dizem ao 4.7 para entregar algo específico.

❌ PROMPT ANTIGO

Você pode me ajudar com o e-mail?

✅ PROMPT 4.7

Escreva um e-mail de acompanhamento. Objetivo: agendar reunião até sexta. Menos de 90 palavras. Tom: confiante, casual, específico.

A correção: Comece todo prompt com um verbo. Escreva. Analise. Compare. Liste. Redija. Construa. Verbos de ação eliminam ambiguidade sobre o que o 4.7 deve produzir.

Quais São os Níveis de Esforço do Claude 4.7 e Qual Você Deve Usar?

O Claude 4.7 introduziu um novo nível de esforço: xhigh, entre high e max. A própria recomendação da Anthropic é xhigh para codificação e trabalho agentic, mínimo high para tarefas sensíveis à inteligência.

Aqui está por que isso importa: o Claude 4.7 de baixo esforço é mais ou menos equivalente ao de esforço médio do Claude 4.6. Se você deixou a configuração de esforço no padrão, estava obtendo saída equivalente ao 4.6 de um modelo que você esperava ser melhor. Isso explica a maioria das reclamações de "4.7 é pior".

Nível de Esforço Melhor Para Cuidado
maxProblemas de raciocínio mais difíceisPropenso a superpensar, retornos decrescentes
xhigh (novo)Codificação, trabalho agentic — recomendação da AnthropicMaior uso de tokens
highA maioria das tarefas sensíveis à inteligênciaMínimo recomendado para trabalho de qualidade
mediumSensível a custo, complexidade moderadaPode subpensar problemas complexos
lowConsultas rápidas, tarefas simplesRisco de raciocínio superficial — 4.7 leva "low" ao pé da letra

A correção: Se você está usando Claude Pro na interface de chat, certifique-se de que "Adaptive thinking" está ativado — isso permite que o 4.7 aloque raciocínio com base na complexidade da tarefa. Se você está na API, defina esforço como xhigh para codificação e high para tudo mais. Não use low a menos que a tarefa seja realmente simples.

Want the cheat sheet version?

Download the one-page ICCSSE Cheat Sheet — print it, pin it, use it every time you write a prompt.

Free download + weekly AI tips. Unsubscribe anytime.

Como Obter Saída Criativa do Claude 4.7?

Essa frase vem diretamente da documentação da Anthropic. Ela empurra o 4.7 além do mínimo literal em tarefas criativas ou abertas. Sem ela, a natureza literal do 4.7 significa que ele faz exatamente o que você pediu — o que para trabalho criativo muitas vezes significa a saída mínima viável.

📋 TEMPLATE PARA TAREFA CRIATIVA

Crie uma landing page para minha consultoria de IA.

Seções (nesta ordem): Hero (título + subtítulo + CTA), Barra de logos (6 placeholders de clientes), 3 cards de estudos de caso (problema / o que fiz / resultado), Blocos de serviços, Carrossel de depoimentos (3 citações), Sobre mim (bio de 180 palavras), Cadastro newsletter, Rodapé.

Estilo: editorial, títulos em serif, corpo em sans-serif, espaçamento generoso. Animações: sutis no scroll.

Vá além do básico. Pola como se fosse uma entrega real para um cliente.

A correção: Para qualquer tarefa criativa, de design ou aberta, adicione "Vá além do básico" no final. É a diferença entre o 4.7 fazer o mínimo e o 4.7 fazer seu melhor trabalho.

Como Fazer o Claude 4.7 Soar Menos Robótico?

O Claude 4.7 é mais direto, menos validativo e usa quase zero emojis em comparação ao 4.6. Se seu caso de uso precisa de calor — suporte ao cliente, coaching, conteúdo educacional — você precisa pedir explicitamente.

💡 Dica Pro

Cole 2-3 frases no tom que você quer e diga ao Claude para combinar o ritmo. Exemplo: "Combine este tom: 'Ei! Ótimo raciocínio nessa abordagem. Aqui o que eu ajustaria...'" Isso é mais eficaz que dizer "seja caloroso" porque o 4.7 segue exemplos concretos melhor que instruções abstratas.

O guia da Anthropic recomenda: "Use um tom caloroso e colaborativo. Reconheça o enquadramento do usuário antes de responder." Adicione isso ao seu system prompt ou instruções de Claude Projects.

Try it yourself

Paste any prompt and get a better version in seconds — works for Claude 4.7's literal style.

Open Prompt Optimizer — Free →

Folha de Referência Rápida: Prompts 4.6 → Prompts 4.7

Hábito Antigo Correção 4.7
"Revise isso"Nomeie cada saída + formato + restrições
"Resuma isso"Defina comprimento, formato e estrutura
"Não use jargão"Instruções positivas: "Escreva no nível do 10º ano"
"Você pode me ajudar?"Verbos de ação: "Escreva / Analise / Construa"
Nível de esforço padrãoDefina como xhigh (codificação) ou high (tudo mais)
Esperando extras criativos"Vá além do básico"
Assumindo tom calorosoDefina tom explicitamente + cole exemplos de voz

O Panorama Geral: É Para Onde Todos os Modelos Estão Indo

O comportamento literal do Claude 4.7 não é uma peculiaridade — é a direção que todos os modelos de IA estão seguindo. A OpenAI atualizou a especificação do modelo para enfatizar "considere não apenas a formulação literal, mas a intenção subjacente." Ambas as empresas estão convergindo de direções opostas: Anthropic adicionando precisão, OpenAI adicionando inferência de intenção. A mesma habilidade — ser explícito sobre o que você quer — está se tornando a chave de ambos os lados.

Se seus prompts funcionam bem no Claude 4.7, eles funcionarão bem em qualquer lugar. O framework ICCSSE (Identity, Context, Constraints, Steps, Specifics, Examples) foi construído exatamente para esse tipo de comportamento literal do modelo — cada elemento força você a ser explícito sobre o que quer.

Quer melhorar seus prompts agora? Cole qualquer prompt no Prompt Optimizer gratuito e veja reestruturado para o estilo explícito e literal que o 4.7 exige. Ou use o Prompt Grader para pontuar seus prompts existentes contra o framework ICCSSE.

---

📬 Quer mais como isso? Publicamos semanalmente sobre habilidades e ferramentas de IA que realmente importam. Assine grátis →

---

Try it yourself

Not sure if Claude 4.7 is right for your task? Take the 60-second quiz.

Open Model Picker Quiz — Free →

Perguntas Frequentes

O Claude 4.7 é pior que o 4.6?

Não. Ele é mais capaz — pontuou 87,6% no SWE-bench vs 80,8% do 4.6. Mas parou de compensar prompts vagos. Se sua saída parece pior, o prompt precisa de atualização, não o modelo.

Preciso reescrever todos os meus prompts?

Não todos. Prompts simples e específicos ainda funcionam bem. Os que quebram são os vagos — "revise isso", "resuma isso", "me ajude com isso". Qualquer prompt que dependia do 4.6 adivinhar sua intenção precisa de atualização.

O que é a configuração "adaptive thinking"?

Na interface de chat do Claude, adaptive thinking permite que o modelo decida quanto raciocínio aplicar com base na complexidade da tarefa. Ative para melhores resultados. Na API, isso mapeia para o parâmetro de esforço — comece com xhigh para codificação, high para tudo mais.

Onde posso ler o guia completo da Anthropic?

As melhores práticas completas de prompting da Anthropic estão em platform.claude.com/docs — procure por "Prompting best practices". Ele cobre desde prompting básico até uso de ferramentas, configuração de pensamento e sistemas agentic.

---

Divulgação: Alguns links neste artigo são links de afiliados. Recomendamos apenas ferramentas que testamos e usamos regularmente. Veja nossa política de divulgação completa.