Claude Opus 4.7 blev udgivet den 16. april 2026. Inden for 48 timer rapporterede brugere på tværs af Reddit, Hacker News og X det samme: prompts, der fungerede på Claude 4.6, producerede pludselig kortere, mere knapfattede og nogle gange dårligere resultater.
Modellen blev ikke dummere. Den blev bogstavelig. Anthropics Claude 4.7 prompting-guide siger det direkte: "Prompts skrevet til tidligere modeller kan nogle gange nu producere uventede resultater. Hvor tidligere modeller fortolkede instruktioner løst eller sprang dele over helt, tager Opus 4.7 instruktionerne bogstaveligt."
Claude 4.6 gættede på, hvad du mente. Claude 4.7 gør præcis, hvad du siger — intet mere, intet mindre. Den ændring ødelægger enhver vag prompt, du har brugt. Hvis du er ny til struktureret prompting, så kig hurtigt på vores prompt engineering for beginners først. Denne guide dækker de 7 vigtigste ændringer og giver konkrete løsninger hentet fra Anthropics prompting-best practices og 4.7-specifikke releasenotes.
Vigtig konklusion
Claude 4.7 er stærkere end 4.6. Men den stoppede med at kompensere for slurvete prompts — hvilket er en stor del af, hvorfor Claude 4.7 føles værre i daglig brug, selvom benchmarks er forbedret. Hvis dit output føles værre, er problemet din prompt — ikke modellen.
Hvad ændrede sig egentlig i Claude 4.7?
Anthropic finjusterede 4.7 for mere forudsigelig, instruktionspræcis adfærd. Det er værdifuldt for udviklere, der bygger AI-agenter og API-pipelines, hvor du vil have forudsigeligt output. Handels-offet er, at modellen er mindre tilbøjelig til at tilbyde information eller uddybe en opgave, medmindre du eksplicit beder om det.
Tre store skift — samme leverandør, andre standardindstillinger (når du vælger mellem assistenter helt, dækker vores ChatGPT vs Claude breakdown kryds-model handels-offs):
| Adfærd | Claude 4.6 (Gammel) | Claude 4.7 (Ny) |
|---|---|---|
| Instruktionsfølgning | Fortolket løst, fyldte huller | Tager instruktioner bogstaveligt |
| Svarlængde | Omtrent ens uanset input | Tilpasser output til opfattet opgavekompleksitet |
| Værktøjsbrug | Kaldte værktøjer ofte | Tænker mere, bruger færre værktøjer |
| Tone | Varm, valideringsfokuseret, emoji-venlig | Direkte, meningstung, næsten ingen emoji |
| Indsatsniveauer | Mindre differentiering mellem niveauer | Respekterer indsatsniveauer strengt — lav indsats = minimalt output |
Hvorfor bryder vage prompts på Claude 4.7?
"Review this contract" fik dig tidligere en omfattende analyse. På 4.7 får du præcis det — en gennemgang. Ikke en risikovurdering, ikke alvorlighedsratings, ikke omskrivningsforslag. Bare en gennemgang.
❌ GAMMEL PROMPT
Review this contract.
✅ 4.7 PROMPT
Review this contract. Flag risks per clause. Rate severity 1-5. Suggest one rewrite per risky clause. Return as a table.
Løsningen: Navngiv hvert output, du vil have. Navngiv rækkefølgen. Navngiv grænserne. Hvis du vil have en tabel, sig "return as a table." Hvis du vil have punktopstillinger, sig "use bullet points." 4.7 gætter ikke på din foretrukne format.
Hvorfor returnerer Claude 4.7 8 afsnit til 'Summarize This'?
Claude 4.6 gav omtrent samme længde uanset inputstørrelse. Claude 4.7 kalibrerer svarlængden til, hvor kompleks den dømmer opgaven at være. Et langt dokument med "summarize" producerer et langt resumé. Hvis du vil have 5 punktopstillinger, skal du sige "5 bullet points."
❌ GAMMEL PROMPT
Summarize this report.
✅ 4.7 PROMPT
Summarize this report in exactly 5 bullet points. Each bullet under 15 words. First word of each bullet: an action verb.
Løsningen: Definer altid format og øvre grænse. "Under 200 words." "Præcis 5 punktopstillinger." "Maksimum 3 afsnit." Anthropics egen guide siger: hvis du vil have koncist output, tilføj "Provide concise, focused responses. Skip non-essential context, and keep examples minimal."
Hvorfor virker negative instruktioner ikke på Claude 4.7?
Det er den mest kontraintuitive ændring. "Don't use jargon" virker ikke godt på 4.7, fordi negative instruktioner følges for bogstaveligt — modellen fokuserer på, hvad den IKKE skal gøre, frem for hvad den SKAL gøre.
❌ GAMMEL PROMPT
Don't use jargon. Don't use buzzwords. Don't sound like a marketer.
✅ 4.7 PROMPT
Write in plain English a 16-year-old could read aloud. Use short, concrete words. Replace "leverage" with "use." Replace "scalable" with "works at any size."
Løsningen: Anthropics guide anbefaler direkte at fortælle Claude, hvad den skal gøre, i stedet for hvad den ikke skal. Positive eksempler, der viser den ønskede kommunikationsstil, er mere effektive end negative instruktioner.
---📬 Får du værdi ud af dette? Vi udgiver én dybdegående analyse om ugen om AI-værktøjer og workflows. Tilmeld dig læsere, der får det i deres indbakke →
---Hvordan starter du hver Claude 4.7 prompt?
"Can you help me with this email?" er et spørgsmål. 4.7 kan svare "yes" og vente. Handlingsverber fortæller 4.7, at den skal levere noget specifikt.
❌ GAMMEL PROMPT
Can you help me with the email?
✅ 4.7 PROMPT
Write a follow-up email. Goal: book a meeting by Friday. Under 90 words. Tone: confident, casual, specific.
Løsningen: Start hver prompt med et verbum. Write. Analyze. Compare. List. Draft. Build. Handlingsverber fjerner tvetydighed om, hvad 4.7 skal producere.
Hvad er Claude 4.7's indsatsniveauer, og hvilke skal du bruge?
Claude 4.7 introducerede et nyt indsatsniveau: xhigh, der sidder mellem high og max. Anthropics egen anbefaling er xhigh til kodning og agentisk arbejde, minimum high til intelligensfølsomme opgaver.
Her er hvorfor det betyder noget: lav-indsats Claude 4.7 er omtrent lig med medium-indsats Claude 4.6. Hvis du lod indsatsindstillingen stå på standard, fik du 4.6-ækvivalent output fra en model, du forventede var bedre. Det forklarer de fleste "4.7 er værre"-klager.
| Indsatsniveau | Bedst til | Pas på |
|---|---|---|
| max | De sværeste ræsonneringsproblemer | Tilbøjelig til overtenkning, aftagende afkast |
| xhigh (ny) | Kodning, agentisk arbejde — Anthropics anbefaling | Højere token-forbrug |
| high | De fleste intelligensfølsomme opgaver | Minimum anbefalet til kvalitetsarbejde |
| medium | Omkostningsfølsomme, moderat kompleksitet | Kan undertenke komplekse problemer |
| low | Hurtige opslag, simple opgaver | Risiko for overfladisk ræsonnering — 4.7 tager "low" bogstaveligt |
Løsningen: Hvis du bruger Claude Pro i chat-grænsefladen, så sørg for, at "Adaptive thinking" er slået til — det lader 4.7 allokere ræsonnering baseret på opgavens kompleksitet. Hvis du er på API'en, sæt indsats til xhigh til kodning og high til alt andet. Brug ikke low, medmindre opgaven er rigtig simpel.
Hvordan får du kreativt output fra Claude 4.7?
Denne sætning kommer direkte fra Anthropics egen dokumentation. Den skubber 4.7 forbi det bogstavelige minimum på kreative eller åbne opgaver. Uden den betyder 4.7's bogstavelige natur, at den gør præcis, hvad du bad om — hvilket for kreativt arbejde ofte betyder det minimale viable output.
📋 KREATIV OPGA VE-SKABELON
Build a landing page for my AI consultancy.
Sections (in this order): Hero (headline + subheadline + CTA), Logo bar (6 client placeholders), 3 case-study cards (problem / what I did / result), Service blocks, Testimonial carousel (3 quotes), About me (180-word bio), Newsletter signup, Footer.
Style: editorial, serif headlines, sans-serif body, generous whitespace. Animations: subtle on scroll.
Go beyond the basics. Polish like it's a real client deliverable.
Løsningen: Til enhver kreativ, design- eller åben opgave, tilføj "Go beyond the basics" til sidst. Det er forskellen mellem 4.7, der gør minimum, og 4.7, der gør sit bedste arbejde.
Hvordan får du Claude 4.7 til at lyde mindre robotagtig?
Claude 4.7 er mere direkte, mindre valideringsfokuseret og bruger næsten ingen emoji sammenlignet med 4.6. Hvis din use case kræver varme — kundesupport, coaching, undervisningsindhold — skal du eksplicit anmode om det.
💡 Pro Tip
Paste 2-3 sætninger i den stemme, du vil have, og bed Claude om at matche rytmen. Eksempel: "Match this tone: 'Hey! Great thinking on that approach. Here's what I'd tweak...'" Det er mere effektivt end at sige "be warm", fordi 4.7 følger konkrete eksempler bedre end abstrakte instruktioner.
Anthropics guide anbefaler: "Use a warm, collaborative tone. Acknowledge the user's framing before answering." Tilføj dette til din system prompt eller Claude Projects instruktioner.
Try it yourself
Paste any prompt and get a better version in seconds — works for Claude 4.7's literal style.
Open Prompt Optimizer — Free →Hurtig cheat sheet: 4.6 Prompts → 4.7 Prompts
| Gammel vane | 4.7 Løsning |
|---|---|
| "Review this" | Navngiv hvert output + format + begrænsninger |
| "Summarize this" | Definer længde, format og struktur |
| "Don't use jargon" | Positive instruktioner: "Write at a 10th-grade level" |
| "Can you help me?" | Handlingsverber: "Write / Analyze / Build" |
| Standard indsatsniveau | Sæt til xhigh (kodning) eller high (alt andet) |
| Forventer kreative ekstra | "Go beyond the basics" |
| Antager varm tone | Sæt tone eksplicit + paste stemmeeksempler |
Det store billede: Det er den retning, alle modeller bevæger sig mod
Claude 4.7's bogstavelige adfærd er ikke en særhed — det er retningen, alle AI-modeller går hen. OpenAI opdaterede deres modelspec til at understrege "consider not just the literal wording but the underlying intent." Begge selskaber nærmer sig fra modsatte sider: Anthropic tilføjer præcision, OpenAI tilføjer intent-inferens. Den samme færdighed — at være eksplicit om, hvad du vil — bliver nøglen på begge sider.
Hvis dine prompts fungerer godt på Claude 4.7, fungerer de godt overalt. ICCSSE framework (Identity, Context, Constraints, Steps, Specifics, Examples) blev bygget præcis til denne slags bogstavelige modeladfærd — hvert element tvinger dig til at være eksplicit om, hvad du vil.
Vil du opgradere dine prompts nu? Paste any prompt into the free Prompt Optimizer og se den omstruktureret til den eksplicitte, bogstavelige stil, som 4.7 kræver. Eller tag Prompt Grader for at score dine eksisterende prompts mod ICCSSE framework.
---📬 Vil du have mere som dette? Vi udgiver ugentligt om de AI-færdigheder og værktøjer, der virkelig betyder noget. Tilmeld dig gratis →
---Try it yourself
Not sure if Claude 4.7 is right for your task? Take the 60-second quiz.
Open Model Picker Quiz — Free →Ofte stillede spørgsmål
Er Claude 4.7 værre end 4.6?
Nej. Den er mere kapabel — den scorede 87,6% på SWE-bench mod 80,8% for 4.6. Men den stoppede med at kompensere for vage prompts. Hvis dit output føles værre, skal prompten opdateres, ikke modellen.
Skal jeg omskrive alle mine prompts?
Ikke alle. Simple, specifikke prompts fungerer stadig fint. De prompts, der bryder, er de vage — "review this," "summarize this," "help me with this." Enhver prompt, der stolede på 4.6's gæt på din hensigt, skal opdateres.
Hvad er "adaptive thinking"-indstillingen?
I Claudes chat-grænseflade tillader adaptive thinking modellen at beslutte, hvor meget ræsonnering den skal anvende baseret på opgavens kompleksitet. Slå den til for de bedste resultater. På API'en svarer det til effort-parametren — start med xhigh til kodning, high til alt andet.
Hvor kan jeg læse Anthropics fulde guide?
De fulde Anthropic prompting-best practices findes på platform.claude.com/docs — søg efter "Prompting best practices." Den dækker alt fra basal prompting til værktøjsbrug, tænke-konfiguration og agentiske systemer.
---Offentliggørelse: Nogle links i denne artikel er affiliate-links. Vi anbefaler kun værktøjer, vi har personligt testet og bruger regelmæssigt. Se vores fulde offentliggørelsespolitik.