Claude Opus 4.7 foi lançado em 16 de abril de 2026. Em 48 horas, usuários no Reddit, Hacker News e X relataram a mesma coisa: prompts que funcionavam no Claude 4.6 de repente produziram resultados mais curtos, concisos e, às vezes, piores.
O modelo não ficou mais burro. Ele ficou literal. O guia de prompting do Claude 4.7 da Anthropic afirma isso diretamente: "Prompts escritos para modelos anteriores podem agora produzir resultados inesperados. Onde modelos anteriores interpretavam instruções de forma frouxa ou pulavam partes inteiramente, o Opus 4.7 leva as instruções ao pé da letra."
O Claude 4.6 adivinhava o que você queria dizer. O Claude 4.7 faz exatamente o que você diz — nada mais, nada menos. Essa única mudança quebra todos os prompts vagos que você tem usado. Se você é novo em prompts estruturados, dê uma olhada primeiro no nosso prompt engineering for beginners. Este guia aborda as 7 mudanças que mais importam e oferece correções concretas baseadas nas melhores práticas de prompting da Anthropic e nas notas de lançamento específicas do 4.7.
Principais Conclusões
O Claude 4.7 é mais forte que o 4.6. Mas ele parou de compensar prompts mal elaborados — o que explica em grande parte por que o Claude 4.7 parece pior no uso diário, mesmo com benchmarks melhores. Se sua saída parece pior, o problema é o seu prompt — não o modelo.
O Que Realmente Mudou no Claude 4.7?
A Anthropic ajustou o 4.7 para um comportamento mais previsível e preciso nas instruções. Isso é valioso para desenvolvedores construindo agentes de IA e pipelines de API onde você quer saídas previsíveis. O tradeoff é que o modelo é menos propenso a oferecer informações por conta própria ou expandir uma tarefa a menos que você peça explicitamente.
Três mudanças principais — mesmo fornecedor, padrões diferentes (quando você está escolhendo entre assistentes completamente, nosso ChatGPT vs Claude breakdown cobre tradeoffs entre modelos):
| Comportamento | Claude 4.6 (Antigo) | Claude 4.7 (Novo) |
|---|---|---|
| Seguir instruções | Interpretava de forma frouxa, preenchia lacunas | Leva instruções ao pé da letra |
| Comprimento da resposta | Mais ou menos consistente independentemente da entrada | Ajusta saída à complexidade percebida da tarefa |
| Uso de ferramentas | Chamava ferramentas com frequência | Raciocina mais, usa menos ferramentas |
| Tom | Caloroso, validativo, amigável a emojis | Direto, opinativo, quase zero emojis |
| Níveis de esforço | Menos diferenciação entre níveis | Respeita níveis de esforço estritamente — baixo esforço = saída mínima |
Por Que Prompts Vagos Quebram no Claude 4.7?
"Revise este contrato" costumava dar uma análise abrangente. No 4.7, você recebe exatamente isso — uma revisão. Não uma avaliação de riscos, não classificações de gravidade, não sugestões de reescrita. Apenas uma revisão.
❌ PROMPT ANTIGO
Revise este contrato.
✅ PROMPT 4.7
Revise este contrato. Identifique riscos por cláusula. Classifique gravidade de 1-5. Sugira uma reescrita por cláusula arriscada. Retorne como tabela.
A correção: Nomeie cada saída que você quer. Nomeie a ordem. Nomeie os limites. Se você quer uma tabela, diga "retorne como tabela". Se você quer pontos de bala, diga "use pontos de bala". O 4.7 não vai adivinhar seu formato preferido.
Por Que o Claude 4.7 Retorna 8 Parágrafos para 'Resuma Isso'?
O Claude 4.6 dava mais ou menos o mesmo comprimento independentemente do tamanho da entrada. O Claude 4.7 calibra o comprimento da resposta com base na complexidade que julga da tarefa. Um documento longo com "resuma" produz um resumo longo. Se você quer 5 pontos de bala, precisa dizer "5 pontos de bala".
❌ PROMPT ANTIGO
Resuma este relatório.
✅ PROMPT 4.7
Resuma este relatório em exatamente 5 pontos de bala. Cada bala com menos de 15 palavras. Primeira palavra de cada bala: um verbo de ação.
A correção: Sempre defina o formato e o limite. "Menos de 200 palavras." "Exatamente 5 balas." "Máximo 3 parágrafos." O próprio guia da Anthropic diz: se você quer saída concisa, adicione "Forneça respostas concisas e focadas. Pule contexto não essencial e mantenha exemplos mínimos."
Por Que Instruções Negativas Não Funcionam no Claude 4.7?
Essa é a mudança mais contraintuitiva. "Não use jargão" não funciona bem no 4.7 porque instruções negativas são seguidas de forma muito literal — o modelo foca no que NÃO fazer em vez do que FAZER.
❌ PROMPT ANTIGO
Não use jargão. Não use buzzwords. Não soe como um marqueteiro.
✅ PROMPT 4.7
Escreva em inglês simples que um jovem de 16 anos consiga ler em voz alta. Use palavras curtas e concretas. Substitua "leverage" por "use". Substitua "scalable" por "funciona em qualquer tamanho."
A correção: O guia da Anthropic recomenda diretamente dizer ao Claude o que fazer em vez do que não fazer. Exemplos positivos mostrando o estilo de comunicação desejado são mais eficazes que instruções negativas.
---📬 Está obtendo valor disso? Publicamos um mergulho profundo por semana sobre ferramentas e fluxos de trabalho de IA. Junte-se aos leitores que recebem no inbox →
---Como Começar Todo Prompt do Claude 4.7?
"Você pode me ajudar com este e-mail?" é uma pergunta. O 4.7 pode responder "sim" e esperar. Verbos de ação dizem ao 4.7 para entregar algo específico.
❌ PROMPT ANTIGO
Você pode me ajudar com o e-mail?
✅ PROMPT 4.7
Escreva um e-mail de acompanhamento. Objetivo: agendar reunião até sexta. Menos de 90 palavras. Tom: confiante, casual, específico.
A correção: Comece todo prompt com um verbo. Escreva. Analise. Compare. Liste. Redija. Construa. Verbos de ação eliminam ambiguidade sobre o que o 4.7 deve produzir.
Quais São os Níveis de Esforço do Claude 4.7 e Qual Você Deve Usar?
O Claude 4.7 introduziu um novo nível de esforço: xhigh, entre high e max. A própria recomendação da Anthropic é xhigh para codificação e trabalho agentic, mínimo high para tarefas sensíveis à inteligência.
Aqui está por que isso importa: o Claude 4.7 de baixo esforço é mais ou menos equivalente ao de esforço médio do Claude 4.6. Se você deixou a configuração de esforço no padrão, estava obtendo saída equivalente ao 4.6 de um modelo que você esperava ser melhor. Isso explica a maioria das reclamações de "4.7 é pior".
| Nível de Esforço | Melhor Para | Cuidado |
|---|---|---|
| max | Problemas de raciocínio mais difíceis | Propenso a superpensar, retornos decrescentes |
| xhigh (novo) | Codificação, trabalho agentic — recomendação da Anthropic | Maior uso de tokens |
| high | A maioria das tarefas sensíveis à inteligência | Mínimo recomendado para trabalho de qualidade |
| medium | Sensível a custo, complexidade moderada | Pode subpensar problemas complexos |
| low | Consultas rápidas, tarefas simples | Risco de raciocínio superficial — 4.7 leva "low" ao pé da letra |
A correção: Se você está usando Claude Pro na interface de chat, certifique-se de que "Adaptive thinking" está ativado — isso permite que o 4.7 aloque raciocínio com base na complexidade da tarefa. Se você está na API, defina esforço como xhigh para codificação e high para tudo mais. Não use low a menos que a tarefa seja realmente simples.
Como Obter Saída Criativa do Claude 4.7?
Essa frase vem diretamente da documentação da Anthropic. Ela empurra o 4.7 além do mínimo literal em tarefas criativas ou abertas. Sem ela, a natureza literal do 4.7 significa que ele faz exatamente o que você pediu — o que para trabalho criativo muitas vezes significa a saída mínima viável.
📋 TEMPLATE PARA TAREFA CRIATIVA
Crie uma landing page para minha consultoria de IA.
Seções (nesta ordem): Hero (título + subtítulo + CTA), Barra de logos (6 placeholders de clientes), 3 cards de estudos de caso (problema / o que fiz / resultado), Blocos de serviços, Carrossel de depoimentos (3 citações), Sobre mim (bio de 180 palavras), Cadastro newsletter, Rodapé.
Estilo: editorial, títulos em serif, corpo em sans-serif, espaçamento generoso. Animações: sutis no scroll.
Vá além do básico. Pola como se fosse uma entrega real para um cliente.
A correção: Para qualquer tarefa criativa, de design ou aberta, adicione "Vá além do básico" no final. É a diferença entre o 4.7 fazer o mínimo e o 4.7 fazer seu melhor trabalho.
Como Fazer o Claude 4.7 Soar Menos Robótico?
O Claude 4.7 é mais direto, menos validativo e usa quase zero emojis em comparação ao 4.6. Se seu caso de uso precisa de calor — suporte ao cliente, coaching, conteúdo educacional — você precisa pedir explicitamente.
💡 Dica Pro
Cole 2-3 frases no tom que você quer e diga ao Claude para combinar o ritmo. Exemplo: "Combine este tom: 'Ei! Ótimo raciocínio nessa abordagem. Aqui o que eu ajustaria...'" Isso é mais eficaz que dizer "seja caloroso" porque o 4.7 segue exemplos concretos melhor que instruções abstratas.
O guia da Anthropic recomenda: "Use um tom caloroso e colaborativo. Reconheça o enquadramento do usuário antes de responder." Adicione isso ao seu system prompt ou instruções de Claude Projects.
Try it yourself
Paste any prompt and get a better version in seconds — works for Claude 4.7's literal style.
Open Prompt Optimizer — Free →Folha de Referência Rápida: Prompts 4.6 → Prompts 4.7
| Hábito Antigo | Correção 4.7 |
|---|---|
| "Revise isso" | Nomeie cada saída + formato + restrições |
| "Resuma isso" | Defina comprimento, formato e estrutura |
| "Não use jargão" | Instruções positivas: "Escreva no nível do 10º ano" |
| "Você pode me ajudar?" | Verbos de ação: "Escreva / Analise / Construa" |
| Nível de esforço padrão | Defina como xhigh (codificação) ou high (tudo mais) |
| Esperando extras criativos | "Vá além do básico" |
| Assumindo tom caloroso | Defina tom explicitamente + cole exemplos de voz |
O Panorama Geral: É Para Onde Todos os Modelos Estão Indo
O comportamento literal do Claude 4.7 não é uma peculiaridade — é a direção que todos os modelos de IA estão seguindo. A OpenAI atualizou a especificação do modelo para enfatizar "considere não apenas a formulação literal, mas a intenção subjacente." Ambas as empresas estão convergindo de direções opostas: Anthropic adicionando precisão, OpenAI adicionando inferência de intenção. A mesma habilidade — ser explícito sobre o que você quer — está se tornando a chave de ambos os lados.
Se seus prompts funcionam bem no Claude 4.7, eles funcionarão bem em qualquer lugar. O framework ICCSSE (Identity, Context, Constraints, Steps, Specifics, Examples) foi construído exatamente para esse tipo de comportamento literal do modelo — cada elemento força você a ser explícito sobre o que quer.
Quer melhorar seus prompts agora? Cole qualquer prompt no Prompt Optimizer gratuito e veja reestruturado para o estilo explícito e literal que o 4.7 exige. Ou use o Prompt Grader para pontuar seus prompts existentes contra o framework ICCSSE.
---📬 Quer mais como isso? Publicamos semanalmente sobre habilidades e ferramentas de IA que realmente importam. Assine grátis →
---Try it yourself
Not sure if Claude 4.7 is right for your task? Take the 60-second quiz.
Open Model Picker Quiz — Free →Perguntas Frequentes
O Claude 4.7 é pior que o 4.6?
Não. Ele é mais capaz — pontuou 87,6% no SWE-bench vs 80,8% do 4.6. Mas parou de compensar prompts vagos. Se sua saída parece pior, o prompt precisa de atualização, não o modelo.
Preciso reescrever todos os meus prompts?
Não todos. Prompts simples e específicos ainda funcionam bem. Os que quebram são os vagos — "revise isso", "resuma isso", "me ajude com isso". Qualquer prompt que dependia do 4.6 adivinhar sua intenção precisa de atualização.
O que é a configuração "adaptive thinking"?
Na interface de chat do Claude, adaptive thinking permite que o modelo decida quanto raciocínio aplicar com base na complexidade da tarefa. Ative para melhores resultados. Na API, isso mapeia para o parâmetro de esforço — comece com xhigh para codificação, high para tudo mais.
Onde posso ler o guia completo da Anthropic?
As melhores práticas completas de prompting da Anthropic estão em platform.claude.com/docs — procure por "Prompting best practices". Ele cobre desde prompting básico até uso de ferramentas, configuração de pensamento e sistemas agentic.
---Divulgação: Alguns links neste artigo são links de afiliados. Recomendamos apenas ferramentas que testamos e usamos regularmente. Veja nossa política de divulgação completa.