Non te lo stai immaginando.
Quel prompt che una volta ti dava una bozza di blog perfetta? Ora restituisce una versione annacquata, piena di dubbi, che rifiuta di impegnarsi su quello che hai chiesto.
Il modello di email che una volta sembrava scritto da te? Ora sembra scritto da un bot di customer service addestrato su documenti di conformità aziendale.
Non sei peggiorato nel fare prompt. ChatGPT è cambiato.
Ecco cosa è successo effettivamente — e cinque cose che puoi fare al riguardo adesso.
Cosa è Cambiato (E Quando)
OpenAI ha fatto significativi aggiustamenti del modello nel tardo 2025 e nel 2026. I cambiamenti rientrano in tre categorie:
L'ottimizzazione della sicurezza è diventata più aggressiva. ChatGPT ora aggiunge più dubbi, più disclaimer, e rifiuta casi limite che gestiva bene prima. Se hai notato più risposte "Non posso aiutarti con questo" o "È importante sottolineare che...", questo è il motivo.
Nel lavoro quotidiano, l'ottimizzazione aggressiva della sicurezza spesso appare come "paragrafi di preambolo" — due frasi di contesto prima della risposta — o un rifiuto che sembra stranamente limitato rispetto a quello che hai chiesto. Se il tuo compito è genuinamente innocuo ma adiacente a una categoria sensibile (salute, sicurezza, questioni legali), a volte puoi recuperare la qualità riformulando come processo ("descrivi come un team esaminerebbe questo") piuttosto che chiedere un giudizio definitivo.
L'ottimizzazione dei costi ha cambiato il comportamento del modello. OpenAI gestisce miliardi di richieste. Piccoli guadagni di efficienza alla loro scala si traducono in milioni di risparmi. Alcuni utenti riportano che le risposte sembrano più brevi, meno dettagliate e più formalistiche — coerente con un modello ottimizzato per la velocità piuttosto che la profondità.
Anche quando la capacità media rimane alta, gli standard orientati alla velocità possono cambiare quello che vedi nell'interfaccia: prime bozze più brevi, meno sezioni opzionali, e meno esplorativo "ecco tre direzioni creative" a meno che non lo chiedi esplicitamente. Questo può sembrare un calo di qualità se i tuoi vecchi prompt si affidavano al modello che offriva spontaneamente una struttura.
Il modello base è cambiato. GPT-4o, GPT-4.5 e GPT-5.5 si comportano diversamente. Se hai costruito prompt ottimizzati per il comportamento di GPT-4, potrebbero non funzionare allo stesso modo su versioni più nuove. La personalità, la verbosità e i modelli di ragionamento sono cambiati tra le versioni.
Questi cambiamenti raramente arrivano come un singolo momento di comunicato stampa. In pratica, te ne accorgi quando un modello che ha funzionato per mesi improvvisamente sembra "strano" — le stesse istruzioni, gli stessi esempi nel tuo prompt, ma l'output va alla deriva verso riassunti generici, elenchi puntati che ripetono la tua richiesta, e meno raccomandazioni concrete. Questo disallineamento è spesso un cambio di versione o instradamento dietro le quinte, non un mistero degrado nelle tue abilità.
Un altro modello che le persone trascurano: il tuo stesso utilizzo è cambiato. All'inizio, avresti potuto usare ChatGPT per bozze rapide e brainstorming. Ora potresti chiedere di interpretare contratti, commentare argomenti adiacenti al medico, o gestire qualsiasi cosa che attivi logica di rifiuto più ristretta. Il modello non è identico in tutti i livelli di rischio, e l'esperienza del prodotto può instradati attraverso diversi misure di sicurezza a seconda dell'argomento e delle impostazioni dell'account.
Se vuoi un modo pratico per confrontare il comportamento senza impazzire, mantieni un file di "prompt d'oro": cinque compiti che esegui trimestralmente (riscrivi questo paragrafo, correggi questo frammento, delinea questo discorso, critica questa landing page, riassumi questo frammento di PDF). Quando la qualità dell'output cambia, hai una base datata invece di una memoria basata su sensazioni.
Il Vero Problema: I Tuoi Prompt Non Si Sono Adattati
Ecco la verità scomoda: la maggior parte delle persone ha scritto prompt che funzionavano a causa delle specifiche tendenze di GPT-4, non perché i prompt fossero ben strutturati.
GPT-4 era verboso per impostazione predefinita. Ti avrebbe dato 2.000 parole quando chiedevi un riassunto. Avrebbe dedotto la tua intenzione generosamente. Avrebbe preso libertà creative che non avevi esplicitamente chiesto.
Questa verbosità non era sempre buona — poteva seppellire la risposta — ma creava un'illusione di competenza perché il modello copriva i vuoti nella tua richiesta. Se una volta chiedevi "riassumi questa riunione" senza partecipanti, decisioni e obiettivo, GPT-4 potrebbe comunque produrre qualcosa di plausibile. Un modello più letterale potrebbe restituire un riassunto scarso o fare domande di chiarimento, che sembra meno utile anche se è più onesto.
I modelli più nuovi sono più letterali. Più conservatori. Più probabili di darti esattamente quello che hai chiesto — il che significa che prompt vaghi ottengono output vaghi.
Questo non è il modello che diventa più stupido. È il modello che diventa più obbediente. E obbediente + istruzioni vaghe = output pessimo.
Ecco un esempio concreto. Supponi di chiedere "feedback sui miei punti del curriculum". Un modello più interpretativo potrebbe dedurre il tuo settore, dedurre l'anzianità, e riscrivere i punti in modo aggressivo. Un modello più letterale potrebbe restituire una lista di controllo educata ("considera di quantificare l'impatto") senza toccare il tuo testo — tecnicamente responsivo, praticamente inutile. La soluzione non è arrabbiarsi e smettere; è specificare il ruolo del curriculum, la famiglia di lavoro target, come appare il "bene" (due punti di esempio che ammiri), e se desideri riscritture o solo annotazioni.
La stessa dinamica appare nella programmazione. "Perché questo è lento?" una volta otteneva suggerimenti speculativi di ottimizzazione. Ora potresti ottenere una lista attenta di passaggi di profilatura per primo. Questo può sembrare un degrado se volevi cambiamenti di codice immediati — ma è spesso il modello che segue uno stile di conformità alle istruzioni più conservatore. Dagli il permesso: "Assumi che ho già fatto il profiling; ecco i tempi; proponi solo cambiamenti di codice."
5 Soluzioni Che Funzionano Davvero
Soluzione 1: Aggiungi un'identità
Vecchio prompt: "Scrivi un'email di marketing."
Il vecchio GPT-4 avrebbe dedotto un tono, scelto uno stile, aggiunto personalità. I modelli nuovi giocano in sicurezza.
Prompt corretto: "Sei uno scrittore di copy senior che ha scritto campagne email per Shopify e Mailchimp. Scrivi un'email di marketing per [prodotto]. Tono: diretto, leggermente irriverente, no corporate speak."
L'identità dà al modello il permesso di avere una voce. Senza di essa, ottieni il default: insulso, sicuro, indimenticabile.
Un altro vantaggio veloce: aggiungi una riga di "esempio negativo" — quale tono non desideri. Per esempio: "Evita il ritmo da influencer di LinkedIn, niente 'approfondire' o 'panorama', nessun entusiasmo falso." Questo vincolo riduce la probabilità della voce generica del blog SaaS di cui molti utenti si lamentano nel 2026.
Soluzione 2: Dì al modello cosa NON fare
I modelli nuovi danno troppo peso alla sicurezza e cortesia. Controbatti esplicitamente:
"Nessun disclaimer. Nessun 'è importante sottolineare'. Nessun dubbio. Dammi la tua valutazione effettiva, non una non-risposta diplomaticamente bilanciata."
Questa singola riga riporta indietro la direttezza che GPT-4 aveva per impostazione predefinita.
Puoi impilare istruzioni "anti-dubbio" con una rubrica di scoring quando aiuta: "Classifica le opzioni A/B/C con un unico vincitore; se incerto, dì quali dati risolverebbero l'incertezza; non presentare un pareggio a cinque paragrafi." Le rubriche suonano aziendali, ma funzionano perché forzano un confine decisionale.
Soluzione 3: Aggiungi vincoli
"Meno di 200 parole. Nessun preambolo. Inizia con il consiglio, poi spiega il perché."
I vincoli forzano il modello a dare priorità. Senza di essi, ottieni la lunghezza e la struttura predefinita del modello — che sulle versioni più nuove tende ad essere cauta e imbottita.
I vincoli aiutano anche quando hai bisogno di artifact strutturati: "Output come una tabella con colonne Rischio / Mitigazione / Proprietario" o "Restituisci chiavi JSON: summary, action_items, open_questions." Gli output strutturati riducono il divagare e rendono la modifica a valle più veloce in Notion, Google Docs, o il tuo sistema di ticketing.
Soluzione 4: Prova Claude
Questa non è una raccomandazione "basta cambiare". Modelli diversi sono migliori per cose diverse:
- Claude eccelle nella redazione lunga, nel seguire istruzioni complesse e nel mantenere una voce coerente nei documenti lunghi. Attualmente è la scelta migliore per la creazione di contenuti, l'analisi di documenti e qualsiasi cosa dove hai bisogno che l'AI segua specifiche dettagliate.
- ChatGPT rimane in testa nell'esecuzione di codice (eseguire Python nel browser), nella generazione di immagini (DALL-E), e nella vastità delle integrazioni (plugin, GPT, browsing).
- Gemini è più forte per compiti che coinvolgono dati dell'ecosistema Google (Gmail, Drive, Calendar) e ha la finestra di contesto più grande per elaborare documenti molto lunghi.
La risposta giusta non è sceglierne uno — è sapere quale usare per cosa. Prova il nostro Model Picker gratuito per abbinare il tuo compito specifico al modello migliore.
Se sei nel mezzo di una migrazione, esegui lo stesso "prompt d'oro" su ChatGPT e Claude fianco a fianco per una settimana. Non stai cercando un vincitore per sempre — stai cercando quale modello rispetta i tuoi vincoli (lunghezza, tono, citazioni, rifiuti) per il lavoro che effettivamente fai.
Soluzione 5: Usa il Framework ICCSSE
Ogni buon prompt ha fino a sei componenti:
- Identity — Chi dovrebbe essere l'AI?
- Contesto — Qual è lo sfondo?
- Concoli — Quali sono i limiti?
- Steps — Quale è l'ordine delle operazioni?
- Specifici — Quali dettagli esatti contano?
- Esempi — Come appare l'output buono?
Non hai bisogno di tutti e sei ogni volta. I compiti semplici hanno bisogno di 2-3. I compiti complessi beneficiano di tutti e sei.
La differenza tra "ChatGPT sta diventando più stupido" e "Ho bisogno di aggiornare i miei prompt" è di solito questo framework. Leggi la guida completa ICCSSE o prova l'Ottimizzatore di Prompt per migliorare automaticamente qualsiasi prompt.
Un'altra abitudine che paga: salva "diff di prompt." Quando cambi un prompt e la qualità migliora, conserva la coppia prima/dopo. Nel tempo costruisci una biblioteca personale di cosa risponde il tuo stack — molto più preziosa che inseguire liste generiche di "prompt migliori".
ChatGPT sta diventando peggiore o me lo sto immaginando?
Probabilmente non ti stai immaginando un cambio nella sensazione, ma il salto da "sensazione" a "peggiore" salta una distinzione importante. ChatGPT nel 2026 spesso sta ottimizzando per un diverso mix di obiettivi rispetto alla versione su cui ti sei impresso: sicurezza, conformità alle istruzioni, latenza e costo a scala enorme. Questi obiettivi possono produrre output che sembrano meno creativi anche quando la capacità sottostante è ancora forte per compiti ben specificati.
Quello che sembra "peggiore" è frequentemente un disallineamento tra aspettative e default. Se ti aspetti che il modello deduca il contesto mancante, riempia la voce del marchio e assuma rischi stilistici, noterai più attrito quando il default è la conformità letterale. Questo attrito è reale — è solo non la stessa cosa che il QI scende.
Un test pratico è la riproducibilità. Se incolla lo stesso prompt due volte e ottieni una qualità materialmente diversa, potresti stare colpendo varianza di instradamento, utilizzo dello strumento, o differenze di modalità di browsing — non un "modello stabile più stupido". Se la qualità è costantemente più bassa solo per una categoria di compiti (medico, legale, politico), probabilmente stai colpendo un comportamento carico di politiche piuttosto che un degrado globale.
Infine, controlla il tuo segnale di affaticamento. Quando le persone sono occupate, riutilizzano prompt fragili ("ripara questo") e interpretano risposte vaghe come intelligenza inferiore. Il controllo di sanità più veloce è spendere dieci minuti per irrigidire i prompt per i tuoi tre flussi di lavoro principali. Se la qualità salta, il collo di bottiglia era la specifica — il che è una buona notizia perché è risolvibile senza cambiare prodotti.
Dovrei passare da ChatGPT a Claude?
Passa se il tuo dolore principale è la fedeltà a lungo termine: articoli multisezione, riscrittura sfumata, documenti lunghi dove hai bisogno di tono coerente, o prompt con molti vincoli che devono tutti mantenersi. Claude è spesso la prima tappa per team i cui output di ChatGPT sembrano "appiattiti" dopo i cambiamenti di ottimizzazione 2025–2026.
Rimani su ChatGPT (o mantieni entrambi) se i tuoi flussi di lavoro dipendono da punti di forza nativi di ChatGPT: esecuzione di codice nel browser, generazione di immagini, certe integrazioni, o una pila di abitudini costruita attorno a GPT e strumenti che non desideri ricostruire. Molti utenti esperti non "cambiano"; instradano compiti per tipo allo stesso modo in cui sceglieresti Postgres vs Elasticsearch in base al carico di lavoro.
Se cambi, impegnati per due settimane su vero lavoro, non prompt giocattolo. Ricostruisci alcuni modelli con struttura ICCSSE, poi confronta risultati su velocità, modifiche richieste e tasso di rifiuto. Guarda anche il costo: "output migliore" che richiede il doppio delle iterazioni non è effettivamente migliore per il tuo calendario.
Se sei incerto, inizia con il Model Picker e poi convalida con l'Ottimizzatore di Prompt quindi non stai confrontando modelli usando prompt ingiustamente pigri.
Qual è la migliore alternativa a ChatGPT nel 2026?
Non c'è un unico vincitore — la migliore alternativa dipende da se ti interessa più la redazione, le citazioni di ricerca, l'esecuzione di codice, l'integrazione di Google Workspace, o preferenze di privacy locale. Detto questo, l'"alternativa di default" più comune per utenti che pesano su ChatGPT nel 2026 rimane Claude per redazione e lavoro su documenti, Perplexity per ricerca fondata, e Gemini quando i tuoi input vivono su Gmail/Drive/Calendar e vuoi integrazione stretta.
Per la programmazione in particolare, il panorama si è diviso: ChatGPT rimane forte come pair programmer generalista, mentre strumenti come Cursor e Claude Code competono su come desideri che l'AI tocchi il tuo repo (nativo dell'editor vs agenziale). Se il tuo reclamo è "ChatGPT sembra stupido per le revisioni di codice," prova a spostare le revisioni in un flusso di lavoro con contesto di file esplicito e formato di output più rigoroso, indipendentemente dal fornitore.
Se il tuo reclamo è "Ho bisogno di utilizzo più economico o più controllabile," i flussi di lavoro basati su API e strumenti specializzati più piccoli a volte battono una singola interfaccia di chat. Le utility gratuite di HundredTabs — da formattazione JSON a PDF a Markdown — possono rimuovere intere classi di chiacchierate di chat.
Qualunque cosa scegli, esegui di nuovo i tuoi prompt d'oro e misura: tempo-a-output-utile, numero di follow-up, e quanto spesso abbandoni la risposta. Quelle metriche battono la fedeltà al marchio e le aneddoti del forum.
La Linea di Fondo
ChatGPT non è diventato più stupido. È diventato più conservatore, più letterale, e meno propenso a riempire i vuoti che hai lasciato nei tuoi prompt.
I prompt che "una volta funzionavano" si affidavano al modello che era generoso con l'interpretazione. Questo non è affidabile su versioni di modello diverse. I prompt strutturati funzionano su ogni modello, ogni versione, ogni volta.
Se sei frustrato dalla qualità dell'output AI nel 2026, la soluzione non è un nuovo abbonamento. È un prompt migliore.
- Ottimizzatore di Prompt — incolla qualsiasi prompt, ottieni una versione migliorata
- Model Picker — trova l'AI giusta per il tuo compito
- Guida del Framework ICCSSE — il framework completo per fare prompt
- Confronta Modelli — confronto AI fianco a fianco