Claude Opus 4.7 a été publié le 16 avril 2026. En 48 heures, des utilisateurs sur Reddit, Hacker News et X ont signalé la même chose : des prompts qui fonctionnaient sur Claude 4.6 produisaient soudain des résultats plus courts, plus concis, parfois pires.
Le modèle n’est pas devenu plus stupide. Il est devenu littéral. Le guide de prompting de Claude 4.7 d’Anthropic le dit explicitement : « Les prompts écrits pour des modèles antérieurs peuvent parfois produire des résultats inattendus. Là où les modèles précédents interprétaient les instructions de manière souple ou sautaient des parties, Opus 4.7 prend les instructions au pied de la lettre. »
Claude 4.6 devinait ce que vous vouliez dire. Claude 4.7 fait exactement ce que vous dites — rien de plus, rien de moins. Ce seul changement casse tous les prompts vagues que vous utilisiez. Si vous êtes nouveau dans les prompts structurés, lisez d’abord notre article prompt engineering for beginners. Ce guide couvre les 7 changements les plus importants et propose des solutions concrètes tirées des meilleures pratiques de prompting d’Anthropic et des notes de version spécifiques à 4.7.
Point clé
Claude 4.7 est plus puissant que 4.6. Mais il a cessé de compenser les prompts négligés — ce qui explique en grande partie pourquoi Claude 4.7 semble pire en usage quotidien même si les benchmarks se sont améliorés. Si votre sortie semble pire, le problème vient de votre prompt — pas du modèle.
Qu’est-ce qui a vraiment changé dans Claude 4.7 ?
Anthropic a ajusté 4.7 pour un comportement plus prévisible et précis aux instructions. C’est précieux pour les développeurs qui construisent des agents IA et des pipelines API où l’on veut des sorties prévisibles. Le compromis, c’est que le modèle est moins enclin à proposer des informations ou à développer une tâche sans demande explicite.
Trois changements majeurs — même fournisseur, paramètres par défaut différents (quand vous choisissez entre assistants, notre analyse ChatGPT vs Claude couvre les compromis inter-modèles) :
| Comportement | Claude 4.6 (Ancien) | Claude 4.7 (Nouveau) |
|---|---|---|
| Suivi des instructions | Interprété de manière souple, comblait les lacunes | Prend les instructions au pied de la lettre |
| Longueur de réponse | À peu près constante quel que soit l’entrée | Adapte la sortie à la complexité perçue de la tâche |
| Utilisation d’outils | Appelait les outils fréquemment | Raisonner plus, utilise moins d’outils |
| Ton | Chaud, orienté validation, convivial avec les emojis | Direct, tranché, presque zéro emoji |
| Niveaux d’effort | Moins de différenciation entre niveaux | Respecte strictement les niveaux d’effort — faible effort = sortie minimale |
Pourquoi les prompts vagues cassent-ils sur Claude 4.7 ?
« Review this contract » vous donnait autrefois une analyse complète. Sur 4.7, ça vous donne exactement ça — une revue. Pas une évaluation des risques, pas de notes de gravité, pas de suggestions de réécriture. Juste une revue.
❌ ANCIEN PROMPT
Review this contract.
✅ PROMPT 4.7
Review this contract. Flag risks per clause. Rate severity 1-5. Suggest one rewrite per risky clause. Return as a table.
La solution : Nommez chaque sortie que vous voulez. Nommez l’ordre. Nommez les limites. Si vous voulez un tableau, dites « return as a table ». Si vous voulez des puces, dites « use bullet points ». 4.7 ne devinera pas votre format préféré.
Pourquoi Claude 4.7 renvoie-t-il 8 paragraphes pour « Summarize This » ?
Claude 4.6 donnait à peu près la même longueur quel que soit l’entrée. Claude 4.7 calibre la longueur de réponse en fonction de la complexité qu’il juge de la tâche. Un long document avec « summarize » produit un long résumé. Si vous voulez 5 puces, il faut dire « 5 bullet points ».
❌ ANCIEN PROMPT
Summarize this report.
✅ PROMPT 4.7
Summarize this report in exactly 5 bullet points. Each bullet under 15 words. First word of each bullet: an action verb.
La solution : Définissez toujours le format et la limite. « Under 200 words. » « Exactly 5 bullets. » « 3 paragraphs maximum. » Le guide d’Anthropic dit : si vous voulez une sortie concise, ajoutez « Provide concise, focused responses. Skip non-essential context, and keep examples minimal. »
Pourquoi les instructions négatives ne fonctionnent-elles pas sur Claude 4.7 ?
C’est le changement le plus contre-intuitif. « Don’t use jargon » ne marche pas bien sur 4.7 car les instructions négatives sont suivies trop littéralement — le modèle se concentre sur ce qu’il NE doit PAS faire plutôt que sur ce qu’il DOIT faire.
❌ ANCIEN PROMPT
Don't use jargon. Don't use buzzwords. Don't sound like a marketer.
✅ PROMPT 4.7
Write in plain English a 16-year-old could read aloud. Use short, concrete words. Replace "leverage" with "use." Replace "scalable" with "works at any size."
La solution : Le guide d’Anthropic recommande directement de dire à Claude quoi faire au lieu de ce qu’il ne doit pas faire. Des exemples positifs montrant le style de communication désiré sont plus efficaces que des instructions négatives.
---📬 Vous en tirez de la valeur ? Nous publions une analyse approfondie par semaine sur les outils et workflows IA. Rejoignez les lecteurs qui la reçoivent dans leur boîte →
---Comment commencer chaque prompt Claude 4.7 ?
« Can you help me with this email ? » est une question. 4.7 pourrait répondre « yes » et attendre. Les verbes d’action disent à 4.7 de produire quelque chose de spécifique.
❌ ANCIEN PROMPT
Can you help me with the email?
✅ PROMPT 4.7
Write a follow-up email. Goal: book a meeting by Friday. Under 90 words. Tone: confident, casual, specific.
La solution : Commencez chaque prompt par un verbe. Write. Analyze. Compare. List. Draft. Build. Les verbes d’action éliminent l’ambiguïté sur ce que 4.7 doit produire.
Quels sont les niveaux d’effort de Claude 4.7 et lequel utiliser ?
Claude 4.7 a introduit un nouveau niveau d’effort : xhigh, entre high et max. La recommandation d’Anthropic est xhigh pour le codage et les travaux agentiques, minimum high pour les tâches sensibles à l’intelligence.
Voici pourquoi c’est important : un Claude 4.7 à faible effort équivaut grosso modo à un Claude 4.6 à effort moyen. Si vous laissiez le paramètre d’effort par défaut, vous obteniez une sortie équivalente à 4.6 d’un modèle que vous pensiez meilleur. Ça explique la plupart des plaintes « 4.7 est pire ».
| Niveau d’effort | Idéal pour | Attention |
|---|---|---|
| max | Problèmes de raisonnement les plus difficiles | Tendance à trop réfléchir, rendements décroissants |
| xhigh (nouveau) | Codage, travaux agentiques — recommandation d’Anthropic | Utilisation de tokens plus élevée |
| high | La plupart des tâches sensibles à l’intelligence | Minimum recommandé pour un travail de qualité |
| medium | Sensibles aux coûts, complexité modérée | Peut sous-réfléchir les problèmes complexes |
| low | Recherches rapides, tâches simples | Risque de superficialité — 4.7 prend « low » au pied de la lettre |
La solution : Si vous utilisez Claude Pro dans l’interface de chat, assurez-vous que « Adaptive thinking » est activé — ça permet à 4.7 d’allouer le raisonnement en fonction de la complexité de la tâche. Sur l’API, réglez l’effort à xhigh pour le codage et high pour tout le reste. N’utilisez pas low sauf si la tâche est vraiment simple.
Comment obtenir une sortie créative de Claude 4.7 ?
Cette phrase vient directement de la documentation d’Anthropic. Elle pousse 4.7 au-delà du minimum littéral pour les tâches créatives ou ouvertes. Sans ça, la nature littérale de 4.7 signifie qu’il fait exactement ce que vous avez demandé — ce qui pour un travail créatif signifie souvent la sortie minimale viable.
📋 MODÈLE POUR TÂCHE CRÉATIVE
Build a landing page for