Claude Opus 4.7 è stato rilasciato il 16 aprile 2026. Entro 48 ore, utenti su Reddit, Hacker News e X hanno riportato la stessa cosa: prompt che funzionavano su Claude 4.6 improvvisamente producevano risultati più brevi, concisi, a volte peggiori.

Il modello non è diventato più stupido. È diventato letterale. La guida al prompting di Anthropic per Claude 4.7 lo afferma direttamente: "Prompt written for earlier models can sometimes now produce unexpected results. Where previous models interpreted instructions loosely or skipped parts entirely, Opus 4.7 takes the instructions literally."

Claude 4.6 indovinava cosa intendevi. Claude 4.7 fa esattamente ciò che dici — niente di più, niente di meno. Questo singolo cambiamento rompe ogni prompt vago che hai usato. Se sei nuovo ai prompt strutturati, dai un'occhiata al nostro prompt engineering for beginners prima. Questa guida copre i 7 cambiamenti più importanti e ti dà soluzioni concrete tratte dalle best practices di prompting di Anthropic e dalle note di rilascio specifiche per la 4.7.

Punto chiave

Claude 4.7 è più potente di 4.6. Ma ha smesso di compensare prompt approssimativi — ed è per questo che Claude 4.7 sembra peggiore nell'uso quotidiano, anche se i benchmark sono migliorati. Se l'output sembra peggiore, il problema è il tuo prompt — non il modello.

Cos'è cambiato davvero in Claude 4.7?

Anthropic ha ottimizzato la 4.7 per un comportamento più prevedibile e preciso nelle istruzioni. Questo è prezioso per gli sviluppatori che costruiscono agenti AI e pipeline API dove vuoi output prevedibili. Il compromesso è che il modello è meno propenso a offrire informazioni extra o espandere un compito a meno che non lo chiedi esplicitamente.

Tre cambiamenti principali — stesso fornitore, impostazioni predefinite diverse (quando scegli tra assistenti completamente, il nostro ChatGPT vs Claude breakdown copre i compromessi tra modelli):

Comportamento Claude 4.6 (Vecchio) Claude 4.7 (Nuovo)
Seguimento istruzioniInterpretava in modo lasco, colmava lacunePrende le istruzioni alla lettera
Lunghezza rispostaGrossomodo costante indipendentemente dall'inputAdatta l'output alla complessità percepita del compito
Uso toolChiamava tool frequentementeRagiona di più, usa meno tool
TonoCaldo, orientato alla validazione, emoji-friendlyDiretto, deciso, quasi zero emoji
Livelli di sforzoMinore differenziazione tra livelliRispetta rigorosamente i livelli di sforzo — basso sforzo = output minimo

Perché i prompt vaghi si rompono su Claude 4.7?

"Review this contract" una volta ti dava un'analisi completa. Su 4.7, ottieni esattamente quello — una revisione. Non una valutazione dei rischi, non rating di gravità, non suggerimenti di riscrittura. Solo una revisione.

❌ VECCHIO PROMPT

Review this contract.

✅ PROMPT 4.7

Review this contract. Flag risks per clause. Rate severity 1-5. Suggest one rewrite per risky clause. Return as a table.

La soluzione: Nomina ogni output che vuoi. Specifica l'ordine. Definisci i confini. Se vuoi una tabella, di' "return as a table." Se vuoi punti elenco, di' "use bullet points." 4.7 non indovinerà il tuo formato preferito.

Perché Claude 4.7 restituisce 8 paragrafi per 'Summarize This'?

Claude 4.6 dava grossomodo la stessa lunghezza indipendentemente dalla dimensione dell'input. Claude 4.7 calibra la lunghezza della risposta in base a quanto giudica complesso il compito. Un documento lungo con "summarize" produce un riassunto lungo. Se vuoi 5 punti elenco, devi dire "5 bullet points."

❌ VECCHIO PROMPT

Summarize this report.

✅ PROMPT 4.7

Summarize this report in exactly 5 bullet points. Each bullet under 15 words. First word of each bullet: an action verb.

La soluzione: Definisci sempre formato e limite. "Under 200 words." "Exactly 5 bullets." "3 paragraphs maximum." La guida di Anthropic dice: se vuoi output conciso, aggiungi "Provide concise, focused responses. Skip non-essential context, and keep examples minimal."

Perché le istruzioni negative non funzionano su Claude 4.7?

Questo è il cambiamento più controintuitivo. "Don't use jargon" non funziona bene su 4.7 perché le istruzioni negative vengono seguite troppo alla lettera — il modello si concentra su cosa NON fare invece che su cosa FARE.

❌ VECCHIO PROMPT

Don't use jargon. Don't use buzzwords. Don't sound like a marketer.

✅ PROMPT 4.7

Write in plain English a 16-year-old could read aloud. Use short, concrete words. Replace "leverage" with "use." Replace "scalable" with "works at any size."

La soluzione: La guida di Anthropic raccomanda direttamente di dire a Claude cosa fare invece di cosa non fare. Esempi positivi che mostrano lo stile di comunicazione desiderato sono più efficaci delle istruzioni negative.

---

📬 Stai traendo valore da questo? Pubblichiamo un approfondimento settimanale su tool e workflow AI. Unisciti ai lettori che lo ricevono in inbox →

---

Come dovresti iniziare ogni prompt Claude 4.7?

"Can you help me with this email?" è una domanda. 4.7 potrebbe rispondere "yes" e aspettare. I verbi d'azione dicono a 4.7 di produrre qualcosa di specifico.

❌ VECCHIO PROMPT

Can you help me with the email?

✅ PROMPT 4.7

Write a follow-up email. Goal: book a meeting by Friday. Under 90 words. Tone: confident, casual, specific.

La soluzione: Inizia ogni prompt con un verbo. Write. Analyze. Compare. List. Draft. Build. I verbi d'azione eliminano l'ambiguità su cosa 4.7 debba produrre.

Quali sono i livelli di sforzo di Claude 4.7 e quale dovresti usare?

Claude 4.7 ha introdotto un nuovo livello di sforzo: xhigh, posizionato tra high e max. La raccomandazione di Anthropic è xhigh per coding e lavoro agentico, minimo high per compiti sensibili all'intelligenza.

Ecco perché conta: il basso sforzo su Claude 4.7 è grossomodo equivalente al medio sforzo su Claude 4.6. Se lasciavi l'impostazione di sforzo su default, stavi ottenendo output equivalente a 4.6 da un modello che ti aspettavi fosse migliore. Questo spiega la maggior parte delle lamentele "4.7 è peggiore".

Livello di sforzo Ideale per Attenzione
maxProblemi di ragionamento più difficiliPropenso a sovrapensare, rendimenti decrescenti
xhigh (nuovo)Coding, lavoro agentico — raccomandazione AnthropicMaggiore uso di token
highLa maggior parte dei compiti sensibili all'intelligenzaMinimo raccomandato per lavoro di qualità
mediumSensibile ai costi, complessità moderataPotrebbe sottopensare problemi complessi
lowRicerche rapide, compiti sempliciRischio di ragionamento superficiale — 4.7 prende "low" alla lettera

La soluzione: Se usi Claude Pro nell'interfaccia chat, assicurati che "Adaptive thinking" sia attivato — permette a 4.7 di allocare ragionamento in base alla complessità del compito. Se sei sull'API, imposta effort su xhigh per coding e high per tutto il resto. Non usare low a meno che il compito non sia davvero semplice.

Want the cheat sheet version?

Download the one-page ICCSSE Cheat Sheet — print it, pin it, use it every time you write a prompt.

Free download + weekly AI tips. Unsubscribe anytime.

Come ottenere output creativi da Claude 4.7?

Questa frase viene direttamente dalla documentazione di Anthropic. Spinge 4.7 oltre il minimo letterale per compiti creativi o aperti. Senza, la natura letterale di 4.7 significa che fa esattamente ciò che hai chiesto — che per il lavoro creativo spesso significa l'output minimo vitale.

📋 TEMPLATE COMPITO CREATIVO

Build a landing page for my AI consultancy.

Sections (in this order): Hero (headline + subheadline + CTA), Logo bar (6 client placeholders), 3 case-study cards (problem / what I did / result), Service blocks, Testimonial carousel (3 quotes), About me (180-word bio), Newsletter signup, Footer.

Style: editorial, serif headlines, sans-serif body, generous whitespace. Animations: subtle on scroll.

Go beyond the basics. Polish like it's a real client deliverable.

La soluzione: Per qualsiasi compito creativo, di design o aperto, aggiungi "Go beyond the basics" alla fine. È la differenza tra 4.7 che fa il minimo e 4.7 che fa il suo miglior lavoro.

Come far sembrare Claude 4.7 meno robotico?

Claude 4.7 è più diretto, meno orientato alla validazione e usa quasi zero emoji rispetto a 4.6. Se il tuo caso d'uso richiede calore — supporto clienti, coaching, contenuti educativi — devi richiederlo esplicitamente.

💡 Pro Tip

Incolla 2-3 frasi nel tono che vuoi e di' a Claude di abbinare il ritmo. Esempio: "Match this tone: 'Hey! Great thinking on that approach. Here's what I'd tweak...'" È più efficace che dire "be warm" perché 4.7 segue meglio esempi concreti che istruzioni astratte.

La guida di Anthropic raccomanda: "Use a warm, collaborative tone. Acknowledge the user's framing before answering." Aggiungilo al tuo system prompt o alle istruzioni di Claude Projects.

Try it yourself

Paste any prompt and get a better version in seconds — works for Claude 4.7's literal style.

Open Prompt Optimizer — Free →

Scheda rapida: Prompt 4.6 → Prompt 4.7

Vecchia abitudine Fix 4.7
"Review this"Nomina ogni output + formato + vincoli
"Summarize this"Definisci lunghezza, formato e struttura
"Don't use jargon"Istruzioni positive: "Write at a 10th-grade level"
"Can you help me?"Verbi d'azione: "Write / Analyze / Build"
Livello di sforzo defaultImposta su xhigh (coding) o high (tutto il resto)
Aspettarsi extra creativi"Go beyond the basics"
Assumere tono caldoImposta tono esplicitamente + incolla esempi di voce

Il quadro generale: È la direzione verso cui vanno tutti i modelli

Il comportamento letterale di Claude 4.7 non è un capriccio — è la direzione verso cui vanno tutti i modelli AI. OpenAI ha aggiornato la loro model spec per enfatizzare "consider not just the literal wording but the underlying intent." Entrambe le aziende stanno convergendo da direzioni opposte: Anthropic aggiunge precisione, OpenAI aggiunge inferenza di intento. La stessa abilità — essere esplicito su ciò che vuoi — sta diventando la chiave su entrambi i lati.

Se i tuoi prompt funzionano bene su Claude 4.7, funzioneranno ovunque. L'ICCSSE framework (Identity, Context, Constraints, Steps, Specifics, Examples) è stato creato esattamente per questo tipo di comportamento letterale del modello — ogni elemento ti forza a essere esplicito su ciò che vuoi.

Vuoi migliorare i tuoi prompt subito? Incolla qualsiasi prompt nel gratuito Prompt Optimizer e vedi come viene ristrutturato per lo stile esplicito e letterale che 4.7 richiede. O usa il Prompt Grader per valutare i tuoi prompt esistenti contro l'ICCSSE framework.

---

📬 Vuoi altro come questo? Pubblichiamo settimanalmente sulle competenze e tool AI che contano davvero. Iscriviti gratis →

---

Try it yourself

Not sure if Claude 4.7 is right for your task? Take the 60-second quiz.

Open Model Picker Quiz — Free →

Domande frequenti

Claude 4.7 è peggiore di 4.6?

No. È più capace — ha ottenuto il 87.6% su SWE-bench contro l'80.8% di 4.6. Ma ha smesso di compensare prompt vaghi. Se l'output sembra peggiore, il prompt ha bisogno di aggiornamento, non il modello.

Devo riscrivere tutti i miei prompt?

Non tutti. I prompt semplici e specifici funzionano ancora bene. Quelli che si rompono sono i vaghi — "review this," "summarize this," "help me with this." Qualsiasi prompt che si basava su 4.6 che indovinasse il tuo intento ha bisogno di aggiornamento.

Cos'è l'impostazione "adaptive thinking"?

Nell'interfaccia chat di Claude, adaptive thinking permette al modello di decidere quanto ragionamento applicare in base alla complessità del compito. Attivala per i migliori risultati. Sull'API, corrisponde al parametro effort — inizia con xhigh per coding, high per tutto il resto.

Dove posso leggere la guida completa di Anthropic?

Le best practices complete di prompting di Anthropic si trovano su platform.claude.com — cerca "Prompt best practices." Copre tutto, dal prompting base all'uso di tool, configurazione del pensiero e sistemi agentici.

---

Divulgazione: Alcuni link in questo articolo sono link affiliati. Raccomandiamo solo tool che abbiamo testato e usiamo regolarmente. Vedi la nostra full disclosure policy.