Claude Opus 4.7 werd op 16 april 2026 uitgebracht. Binnen 48 uur meldden gebruikers op Reddit, Hacker News en X hetzelfde: prompts die werkten op Claude 4.6 gaven plots kortere, bondigere, soms slechtere resultaten.

Het model werd niet dommer. Het werd letterlijk. De promptinggids van Anthropic voor Claude 4.7 stelt het direct: "Prompts geschreven voor eerdere modellen kunnen nu soms onverwachte resultaten opleveren. Waar eerdere modellen instructies los interpreteerden of delen oversloegen, neemt Opus 4.7 de instructies letterlijk."

Claude 4.6 raadde wat je bedoelde. Claude 4.7 doet precies wat je zegt — niets meer, niets minder. Die ene verandering breekt elke vage prompt die je gebruikt. Als je nieuw bent met gestructureerde prompts, lees dan eerst ons prompt engineering for beginners artikel. Deze gids behandelt de 7 belangrijkste wijzigingen en geeft concrete oplossingen gebaseerd op Anthropics prompting-best practices en de 4.7-specifieke releasenotes.

Belangrijkste les

Claude 4.7 is sterker dan 4.6. Maar het compenseert niet meer voor slordige prompts — en dat is waarom Claude 4.7 in dagelijks gebruik slechter aanvoelt, ook al zijn de benchmarks verbeterd. Als je output slechter lijkt, ligt het probleem aan je prompt — niet aan het model.

Wat is er eigenlijk veranderd in Claude 4.7?

Anthropic heeft 4.7 afgestemd op voorspelbaarder, instructie-precies gedrag. Dat is waardevol voor ontwikkelaars die AI-agents en API-pipelines bouwen waarvoor je voorspelbare output wilt. De keerzijde is dat het model minder snel informatie aanbiedt of een taak uitbreidt tenzij je het expliciet vraagt.

Drie grote verschuivingen — zelfde leverancier, andere standaardinstellingen (als je volledig tussen assistenten kiest, bespreekt onze ChatGPT vs Claude breakdown de kruis-model-afwegingen):

Gedrag Claude 4.6 (Oud) Claude 4.7 (Nieuw)
InstructievolgingLos geïnterpreteerd, hiaten opgevuldNeemt instructies letterlijk
ResponslengteGrofweg consistent ongeacht inputPast output aan op waargenomen taakecomplexiteit
ToolgebruikRiep tools vaak opRedeneert meer, gebruikt minder tools
ToonWarm, bevestigend, emoji-vriendelijkDirect, uitgesproken, bijna geen emoji
InspanningsniveausMinder differentiatie tussen niveausHoudt zich strikt aan inspanningsniveaus — laag = minimaal output

Waarom breken vage prompts op Claude 4.7?

"Review this contract" leverde vroeger een uitgebreide analyse op. Op 4.7 krijg je precies dat — een review. Geen risicobeoordeling, geen ernstscores, geen herschrijfvoorstellen. Gewoon een review.

❌ OUDE PROMPT

Review this contract.

✅ 4.7 PROMPT

Review this contract. Flag risks per clause. Rate severity 1-5. Suggest one rewrite per risky clause. Return as a table.

De oplossing: Noem elke gewenste output. Noem de volgorde. Noem de grenzen. Wil je een tabel? Zeg "return as a table." Wil je bullet points? Zeg "use bullet points." 4.7 raadt je voorkeur niet.

Waarom geeft Claude 4.7 8 alinea's terug voor 'Summarize This'?

Claude 4.6 gaf grofweg dezelfde lengte ongeacht de inputgrootte. Claude 4.7 stemt de responslengte af op hoe complex het de taak inschat. Een lang document met "summarize" levert een lange samenvatting op. Wil je 5 bullet points, zeg dan "5 bullet points."

❌ OUDE PROMPT

Summarize this report.

✅ 4.7 PROMPT

Summarize this report in exactly 5 bullet points. Each bullet under 15 words. First word of each bullet: an action verb.

De oplossing: Definieer altijd het formaat en de limiet. "Onder 200 woorden." "Precies 5 bullets." "Maximaal 3 alinea's." Anthropics eigen gids zegt: als je bondige output wilt, voeg toe "Provide concise, focused responses. Skip non-essential context, and keep examples minimal."

Waarom werken negatieve instructies niet op Claude 4.7?

Dit is de meest tegenintuïtieve verandering. "Don't use jargon" werkt niet goed op 4.7 omdat negatieve instructies te letterlijk worden gevolgd — het model richt zich op wat NIET te doen in plaats van wat WEL te doen.

❌ OUDE PROMPT

Don't use jargon. Don't use buzzwords. Don't sound like a marketer.

✅ 4.7 PROMPT

Write in plain English a 16-year-old could read aloud. Use short, concrete words. Replace "leverage" with "use." Replace "scalable" with "works at any size."

De oplossing: Anthropics gids raadt direct aan om Claude te vertellen wat te doen in plaats van wat niet te doen. Positieve voorbeelden van de gewenste communicatiestijl werken beter dan negatieve instructies.

---

📬 Waarde eruit halen? We publiceren elke week een diepgaande duik in AI-tools en workflows. Sluit je aan bij lezers die het in hun inbox krijgen →

---

Hoe begin je elke Claude 4.7 prompt?

"Can you help me with this email?" is een vraag. 4.7 zou met "yes" kunnen antwoorden en wachten. Actie-verben vertellen 4.7 iets specifieks te leveren.

❌ OUDE PROMPT

Can you help me with the email?

✅ 4.7 PROMPT

Write a follow-up email. Goal: book a meeting by Friday. Under 90 words. Tone: confident, casual, specific.

De oplossing: Begin elke prompt met een werkwoord. Write. Analyze. Compare. List. Draft. Build. Actie-verben elimineren ambiguïteit over wat 4.7 moet produceren.

Wat zijn de inspanningsniveaus van Claude 4.7 en welk moet je gebruiken?

Claude 4.7 introduceerde een nieuw inspanningsniveau: xhigh, tussen high en max. Anthropics eigen aanbeveling is xhigh voor coderen en agentic werk, minimaal high voor intelligentiegevoelige taken.

Dit is waarom het telt: laag-inspanning Claude 4.7 komt overeen met middel-inspanning Claude 4.6. Als je de inspanningsinstelling op standaard liet staan, kreeg je 4.6-equivalente output van een model dat je beter verwachtte. Dat verklaart de meeste "4.7 is slechter" klachten.

Inspanningsniveau Beste voor Let op
maxMoeilijkste redekproblemenNeigt tot overdenken, afnemende meerwaarde
xhigh (nieuw)Coderen, agentic werk — Anthropics aanbevelingHoger tokenverbruik
highMeeste intelligentiegevoelige takenMinimaal aanbevolen voor kwaliteitswerk
mediumKostengevoelig, matige complexiteitKan complexe problemen onderdenken
lowSnelle opzoekingen, simpele takenRisico op oppervlakkig redeneren — 4.7 neemt "low" letterlijk

De oplossing: Gebruik je Claude Pro in de chat-interface, zorg dat "Adaptive thinking" aanstaat — het laat 4.7 redeneren toewijzen op basis van taakecomplexiteit. Bij de API, stel inspanning in op xhigh voor coderen en high voor alles andere. Gebruik low niet tenzij de taak echt simpel is.

Want the cheat sheet version?

Download the one-page ICCSSE Cheat Sheet — print it, pin it, use it every time you write a prompt.

Free download + weekly AI tips. Unsubscribe anytime.

Hoe krijg je creatieve output van Claude 4.7?

Deze frase komt rechtstreeks uit Anthropics eigen documentatie. Het duwt 4.7 voorbij het letterlijke minimum bij creatieve of open-ended taken. Zonder dat doet 4.7 precies wat je vroeg — wat voor creatief werk vaak neerkomt op het minimale haalbare output.

📋 CREATIVE TASK TEMPLATE

Build a landing page for my AI consultancy.

Sections (in this order): Hero (headline + subheadline + CTA), Logo bar (6 client placeholders), 3 case-study cards (problem / what I did / result), Service blocks, Testimonial carousel (3 quotes), About me (180-word bio), Newsletter signup, Footer.

Style: editorial, serif headlines, sans-serif body, generous whitespace. Animations: subtle on scroll.

Go beyond the basics. Polish like it's a real client deliverable.

De oplossing: Voor elke creatieve, design- of open-ended taak, voeg "Go beyond the basics" toe aan het eind. Het verschil tussen 4.7 die het minimum doet en 4.7 die zijn beste werk levert.

Hoe laat je Claude 4.7 minder robotachtig klinken?

Claude 4.7 is directer, minder bevestigend en gebruikt bijna geen emoji vergeleken met 4.6. Als je use case warmte nodig heeft — klantenservice, coaching, educatieve content — moet je het expliciet vragen.

💡 Pro Tip

Plak 2-3 zinnen in de toon die je wilt en zeg Claude het ritme te matchen. Voorbeeld: "Match this tone: 'Hey! Great thinking on that approach. Here's what I'd tweak...'" Dit werkt beter dan "be warm" omdat 4.7 concrete voorbeelden beter volgt dan abstracte instructies.

Anthropics gids raadt aan: "Use a warm, collaborative tone. Acknowledge the user's framing before answering." Voeg dit toe aan je system prompt of Claude Projects instructies.

Try it yourself

Paste any prompt and get a better version in seconds — works for Claude 4.7's literal style.

Open Prompt Optimizer — Free →

Snelle cheat sheet: 4.6 Prompts → 4.7 Prompts

Oude gewoonte 4.7 Oplossing
"Review this"Noem elke output + formaat + beperkingen
"Summarize this"Definieer lengte, formaat en structuur
"Don't use jargon"Positieve instructies: "Write at a 10th-grade level"
"Can you help me?"Actie-verben: "Write / Analyze / Build"
Standaard inspanningsniveauStel in op xhigh (coderen) of high (alles andere)
Creatieve extra's verwachten"Go beyond the basics"
Warmer toon aannemenStel toon expliciet in + plak toonvoorbeelden

Het grotere plaatje: Dit is waar alle modellen naartoe gaan

Het letterlijke gedrag van Claude 4.7 is geen eigenaardigheid — het is de richting waarin alle AI-modellen gaan. OpenAI update hun model-spec om te benadrukken "consider not just the literal wording but the underlying intent." Beide bedrijven komen vanuit tegenovergestelde kanten samen: Anthropic voegt precisie toe, OpenAI voegt intentie-inferentie. Dezelfde vaardigheid — expliciet zijn over wat je wilt — wordt de sleutel aan beide kanten.

Als je prompts goed werken op Claude 4.7, werken ze overal goed. Het ICCSSE framework (Identity, Context, Constraints, Steps, Specifics, Examples) is gebouwd voor precies dit soort letterlijk modelgedrag — elk element dwingt je expliciet te zijn over wat je wilt.

Wil je je prompts nu upgraden? Plak elke prompt in de gratis Prompt Optimizer en zie hoe het wordt herstructureerd voor de expliciete, letterlijke stijl die 4.7 vereist. Of gebruik de Prompt Grader om je bestaande prompts te scoren tegen het ICCSSE framework.

---

📬 Meer zoals dit willen? We publiceren wekelijks over de AI-vaardigheden en tools die er echt toe doen. Meld je gratis aan →

---

Try it yourself

Not sure if Claude 4.7 is right for your task? Take the 60-second quiz.

Open Model Picker Quiz — Free →

Veelgestelde vragen

Is Claude 4.7 slechter dan 4.6?

Nee. Het is capabeler — het scoorde 87,6% op SWE-bench vs 80,8% voor 4.6. Maar het compenseert niet meer voor vage prompts. Als je output slechter aanvoelt, moet de prompt worden bijgewerkt, niet het model.

Moet ik al mijn prompts herschrijven?

Niet allemaal. Simpele, specifieke prompts werken nog prima. De prompts die breken zijn de vage — "review this," "summarize this," "help me with this." Elke prompt die steunde op 4.6 die je intentie raadde, moet worden bijgewerkt.

Wat is de "adaptive thinking" instelling?

In Claude's chat-interface laat adaptive thinking het model beslissen hoeveel redeneren toe te passen op basis van taakecomplexiteit. Zet het aan voor de beste resultaten. Bij de API komt dit overeen met de effort-parameter — begin met xhigh voor coderen, high voor alles andere.

Waar kan ik Anthropics volledige gids lezen?

De volledige Anthropic prompting-best practices staan op platform.claude.com/docs — zoek op "Prompting best practices." Het behandelt alles van basis prompting tot toolgebruik, denkconfiguratie en agentic systemen.

---

Disclosure: Some links in this article are affiliate links. We only recommend tools we've personally tested and use regularly. See our full disclosure policy.