Je verbeeldt het je niet.

Die prompt die je vroeger een perfect blogconcept gaf? Nu levert het een afgezwakte, alles-nuanceren, geen-duidelijk-antwoord versie van wat je vroeg.

De emailsjabloon die vroeger klonk alsof jij hem schreef? Nu klinkt het als een chatbot van klantenservice getraind op bedrijfscompliance-documenten.

Je bent niet slechter geworden in prompting. ChatGPT is veranderd.

Dit is wat er werkelijk gebeurde — en vijf dingen die je nu meteen kunt doen.

Wat is er veranderd (en wanneer)

OpenAI heeft belangrijke modelaanpassingen doorgevoerd gedurende eind 2025 en in 2026. De veranderingen vallen in drie categorieën:

Veiligheidstweaking is agressiever geworden. ChatGPT nuanceert nu meer, voegt vaker disclaimers toe, en weigert randgevallen waar het vroeger prima mee omging. Als je meer "Ik kan daarbij niet helpen" of "Het is belangrijk op te merken dat..." reacties hebt opgemerkt, komt dat hiervan.

In dagelijks werk verschijnt agressieve veiligheidsafstemming vaak als "preflight-alinea's" — twee zinnen context voor het antwoord — of een weigering die vreemd nauw is gegeven wat je vroeg. Als je taak oprecht onschuldig maar aangrenzend aan een gevoelige categorie is (gezondheid, beveiliging, juridisch), kun je soms kwaliteit herstellen door het als proces te herformuleren ("beschrijf hoe een team dit zou controleren") in plaats van om definitieve oordelen te vragen.

Kostenoptimalisatie veranderde het modelgedrag. OpenAI verwerkt miljarden verzoeken. Kleine efficiëntiewinsten op hun schaal betekenen miljoenen in besparingswinsten. Sommige gebruikers melden dat reacties korter, minder gedetailleerd en meer formalistisch voelen — consistent met een model geoptimaliseerd voor doorvoer boven diepte.

Zelfs wanneer de gemiddelde capaciteit hoog blijft, kunnen standaardinstellingen gericht op doorvoer veranderen wat je in de gebruikersinterface ziet: kortere eerste concepten, minder optionele secties, en minder verkennend "hier zijn drie creatieve richtingen" tenzij je er expliciet om vraagt. Dit kan aanvoelen als een kwaliteitsdaling als je oude prompts erop vertrouwden dat het model structuur uit zichzelf aanbiedt.

Het basismodel verschoof. GPT-4o, GPT-4.5 en GPT-5.5 gedragen zich allemaal anders. Als je prompts afgestemd op GPT-4's gedrag hebt gebouwd, werken ze mogelijk niet hetzelfde op nieuwere versies. De persoonlijkheid, uitgebreidheid en redeneringspatronen veranderden tussen versies.

Deze verschuivingen komen zelden aan als een enkel persbericht. In praktijk merk je ze als een sjabloon dat maanden werkte plotseling "vreemd" aanvoelt — dezelfde instructies, dezelfde voorbeelden in je prompt, maar de output drijft naar generieke samenvattingen, opsommingen die je verzoek herhalen, en minder concrete aanbevelingen. Die mismatch is vaak een versie- of routeringsverandering achter de schermen, niet een mysterieus kwaliteitsverlies van je vaardigheden.

Een ander patroon dat mensen missen: je eigen gebruik veranderde. In het begin gebruikte je ChatGPT misschien voor snelle concepten en brainstormen. Nu vraag je het misschien om contracten te interpreteren, medisch-aanverwante onderwerpen te becommentariëren, of iets te doen dat striktere weigeringen activeert. Het model is niet identiek over risicogrenzen heen, en de productervaring kan je door verschillende veiligheidsmaatregelen leiden afhankelijk van onderwerp en accountinstellingen.

Als je een praktische manier wilt om gedrag te vergelijken zonder je vast te bijten, houd dan een bestand met "gouden prompts": vijf taken die je elk kwartaal uitvoert (dit artikel herschrijven, dit codefragment debuggen, deze talk schetsen, deze landingspagina kritiseren, dit PDF-gedeelte samenvatten). Wanneer outputkwaliteit verschuift, heb je een gedateerde baseline in plaats van alleen maar gevoel.

Het echte probleem: je prompts pasten zich niet aan

Hier is de ongemakkelijke waarheid: de meeste mensen schreven prompts die werkten vanwege GPT-4's specifieke gewoonten, niet omdat de prompts goed gestructureerd waren.

GPT-4 was standaard uitgebreid. Het gaf je 2.000 woorden als je om een samenvatting vroeg. Het zou je bedoeling ruimhartig afleiden. Het zou creatieve vrijheden nemen die je niet expliciet vroeg.

Die uitgebreidheid was niet altijd goed — het kon het antwoord begraven — maar het creëerde een illusie van competentie omdat het model gaten in je verzoek opvulde. Als je vroeger "vat deze meeting samen" vroeg zonder deelnemers, besluiten en doel, zou GPT-4 misschien nog iets aannemelijks opleveren. Een meer letterlijk model zou misschien een dunne samenvatting geven of verduidvragende vragen stellen, wat voelt als minder behulpzaam zelfs als het eerlijker is.

Nieuwere modellen zijn meer letterlijk. Voorzichtiger. Meer geneigd je exact wat je vroeg te geven — wat betekent dat vage prompts vage uitvoer krijgen.

Dit is niet dat het model dommerder wordt. Het is het model meer gehoorzaam. En gehoorzaam + vage instructies = slechte uitvoer.

Hier is een concreet voorbeeld. Stel je voor dat je "feedback op mijn cv-punten" vraagt. Een meer interpretatief model zou je bedrijfstak afleiden, anciënniteit afleiden, en punten agressief herschrijven. Een meer letterlijk model zou misschien een beleefde checklist retourneren ("overweeg impact te kwantificeren") zonder je tekst aan te raken — technisch responsief, praktisch nutteloos. De oplossing is niet razend weggaan; het is de cv-functie, doelbaan, wat "goed" eruit ziet (twee voorbeeldpunten die je bewondert), en of je herschrijvingen of alleen annotaties wilt specificeren.

Dezelfde dynamiek verschijnt in codering. "Waarom is dit traag?" kreeg vroeger speculatieve optimalisatiesuggesties. Nu krijg je misschien eerst een voorzichtige lijst met profilingsstappen. Dat kan aanvoelen als een downgrade als je onmiddellijk codewijzigingen wilde — maar het is vaak het model dat een voorzichtiger instructievolgende stijl volgt. Geef het toestemming: "Stel dat ik al heb geprofileerd; hier zijn timings; stel alleen codewijzigingen voor."

5 fixes die echt werken

Fix 1: Voeg een identiteit toe

Oude prompt: "Schrijf me een marketingemail."

De oude GPT-4 zou een toon afleiden, een stijl kiezen, persoonlijkheid toevoegen. Nieuwe modellen spelen het veilig.

Vaste prompt: "Je bent een senior copywriter die emailcampagnes voor Shopify en Mailchimp heeft geschreven. Schrijf een marketingemail voor [product]. Toon: direct, licht oneerbiedig, geen bedrijfsjargon."

De identiteit geeft het model toestemming een stem te hebben. Zonder het, krijg je het standaard: saai, veilig, onvergetelijk.

Nog een snelle winst: voeg één "negatief voorbeeld"-regel toe — welke toon je niet wilt. Bijvoorbeeld: "Vermijd LinkedIn-influencer-cadence, geen 'verdiepen' of 'landschap', geen nep-enthousiasme." Die beperking vermindert de waarschijnlijkheid van de generieke SaaS-blog-stem waar veel gebruikers in 2026 over klagen.

Fix 2: Zeg wat het NIET moet doen

Nieuwe modellen overwegen veiligheid en beleefdheid. Bestrijf dit expliciet:

"Geen disclaimers. Geen 'het is belangrijk op te merken'. Geen nuancering. Geef me je werkelijke beoordeling, niet een diplomatisch evenwichtig non-antwoord."

Deze enkele regel brengt de directheid terug die GPT-4 standaard had.

Je kunt "anti-nuancering"-instructies stapelen met een scoringrubric waar het helpt: "Rank opties A/B/C met een enkele winnaar; als onzeker, zeg welke gegevens onzekerheid zouden oplossen; presenteer geen vijf-paragraaf-gelijkstand." Rubrics klinken bedrijfsmatig, maar ze werken omdat ze een beslissingslimiet afdwingen.

Fix 3: Voeg beperkingen toe

"Onder 200 woorden. Geen inleiding. Begin met de aanbeveling, leg dan uit waarom."

Beperkingen dwingen het model prioriteiten te stellen. Zonder ze, krijg je de standaardlengte en -structuur van het model — wat op nieuwere versies meestal voorzichtig en gepaddest is.

Beperkingen helpen ook als je gestructureerde artifacts nodig hebt: "Uitvoer als tabel met kolommen Risico / Beperking / Eigenaar" of "Return JSON keys: summary, action_items, open_questions." Gestructureerde outputs reduceren zwerven en maken verdere bewerkingen sneller in Notion, Google Docs, of je ticketsysteem.

Fix 4: Probeer Claude

Dit is geen "schakel gewoon over"-aanbeveling. Verschillende modellen zijn beter in verschillende dingen:

  • Claude blinkt uit in langform-schrijven, volgen van complexe instructies, en behoud van een consistente stem over lange documenten. Het is momenteel de beste keuze voor contentcreatie, documentanalyse, en alles waar je wilt dat de AI gedetailleerde specificaties volgt.
  • ChatGPT leidt nog steeds in code-uitvoering (Python in de browser uitvoeren), afbeeldingsgenatie (DALL-E), en breedte van integraties (plugins, GPTs, browsen).
  • Gemini is sterkst voor taken met Google Workspace-gegevens (Gmail, Drive, Calendar) en heeft het grootste contextvenster voor het verwerken van zeer lange documenten.

Het juiste antwoord is niet één kiezen — het is weten welke voor wat te gebruiken. Probeer onze gratis Model Picker om je specifieke taak aan het beste model aan te passen.

Als je midden in een migratie bent, voer dezelfde "gouden prompt" naast elkaar uit op ChatGPT en Claude een week lang. Je zoekt niet naar een eeuwige winnaar — je zoekt welk model je beperkingen respecteert (lengte, toon, citaten, weigeringen) voor het werk dat je echt doet.

Fix 5: Gebruik het ICCSSE Framework

Elke goede prompt heeft tot zes componenten:

  • Identiteit — Wie zou de AI moeten zijn?
  • Context — Wat is de achtergrond?
  • Constraints — Wat zijn de grenzen?
  • Steps — Wat is de volgorde van bewerkingen?
  • Specifics — Welke exacte details zijn belangrijk?
  • Examples — Hoe ziet goede uitvoer eruit?

Je hebt niet elke keer alle zes nodig. Eenvoudige taken hebben er 2-3 nodig. Complexe taken profiteren van alle zes.

Het verschil tussen "ChatGPT wordt dommerder" en "Ik moet mijn prompts updaten" is meestal dit framework. Lees de volledige ICCSSE-gids of probeer de Prompt Optimizer om elke prompt automatisch te verbeteren.

Nog één gewoonte die loont: sla "prompt diffs" op. Als je een prompt verandert en de kwaliteit verbetert, bewaar de voor/na-paren. In de loop van de tijd bouw je een persoonlijke bibliotheek op van wat je stack reageert op — veel waardevoller dan generieke "beste prompts"-lijsten najagen.

Wordt ChatGPT slechter of verbeeld ik me dit?

Je verbeeldt je waarschijnlijk niet een verandering in gevoel, maar de sprong van "gevoel" naar "slechter" slaat een belangrijk onderscheid over. ChatGPT in 2026 optimaliseert vaak voor een ander doel dan de versie waarop je imprinting hebt: veiligheid, instructievolging, latentie, en kosten op enorme schaal. Die doelen kunnen uitvoer produceren die minder creatief aanvoelt zelfs wanneer de onderliggende capaciteit nog steeds sterk is voor goed-gespecificeerde taken.

Wat aanvoelt als "slechter" is vaak een mismatch tussen verwachtingen en standaardinstellingen. Als je verwacht dat het model ontbrekende context afleidt, merkantoon invult, en stilistische risico's neemt, merk je meer wrijving wanneer het standaard letterlijke naleving is. Die wrijving is echt — het is alleen niet hetzelfde als IQ dalen.

Een praktische test is reproduceerbaarheid. Als je dezelfde prompt twee keer kunt plakken en wezenlijk verschillende kwaliteit krijgt, je zou routing-afwijkingen, gereedschapgebruik, of browsmodus-verschillen kunnen raken — niet een stabiel "dommerder model." Als kwaliteit consistent lager is alleen voor een categorie taken (medisch, juridisch, politiek), loop je waarschijnlijk tegen beleidszwaar gedrag aan in plaats van een globale downgrade.

Controleer tenslotte je eigen vermoeidingssignaal. Als mensen druk hebben, hergebruiken ze breekbare prompts ("repareer dit") en interpreteren ze vage antwoorden als lagere intelligentie. De snelste sanitycheck is tien minuten besteden aan het aanscherpen van prompts voor je top drie workflows. Als de kwaliteit springt, was de bottleneck specificatie — wat goed nieuws is omdat het oplosbaar is zonder producten te wisselen.

Moet ik van ChatGPT naar Claude overstappen?

Stap over als je primaire pijn langform-getrouwheid is: meerdelige artikelen, genuanceerde herschrijving, lange documenten waar je consistente toon nodig hebt, of prompts met veel beperkingen die allemaal tegelijk moeten gelden. Claude is vaak de eerste stop voor teams wiens ChatGPT-uitvoer na 2025-2026 tuning-shifts "afgeplat" aanvoelt.

Blijf op ChatGPT (of houd beide) als je workflows afhankelijk zijn van ChatGPT-eigen sterktes: code-uitvoering in de browser, afbeeldingsgenatie, bepaalde integraties, of een gewoontestack rond GPTs en tools die je niet wilt herbouwen. Veel power users "schakelen" niet over; ze routeren taken per type dezelfde manier als je Postgres vs Elasticsearch zou kiezen op basis van workload.

Als je overstap, wijd twee weken toe aan echt werk, geen speelspeelgoed-prompts. Herbouw een handvol sjablonen met ICC-stijlstructuur, vergelijk dan resultaten op snelheid, bewerkingen die nodig zijn, en weigeringpercentage. Let ook op kosten: "betere uitvoer" die twee keer zoveel iteraties vereist is niet eigenlijk beter voor je agenda.

Als je onzeker bent, begin met de Model Picker en valideer dan met de Prompt Optimizer zodat je geen modellen vergelijkt met oneerlijk luie prompts.

Wat is het beste ChatGPT-alternatief in 2026?

Er is geen enkele winnaar — het beste alternatief hangt af van of je vooral om schrijven, onderzoekscitaten, codeuitvoering, Google Workspace-integratie, of lokale privacyvoorkeur geeft. Dat gezegd hebbende, het meest voorkomende "standaard alternatief" voor ChatGPT-zware gebruikers in 2026 blijft Claude voor schrijven en documentwerk, Perplexity voor sourced onderzoek, en Gemini als je invoeren over Gmail/Drive/Calendar verspreid zijn en je strakke integratie wilt.

Voor codering specifiek, het landschap splitste: ChatGPT blijft sterk als generalist pair programmer, terwijl tools als Cursor en Claude Code concurreren op hoe je AI je repo wilt laten aanraken (editor-inheems vs agentisch). Als je klacht "ChatGPT voelt dom voor codereviews" is, probeer beoordelingen naar een workflow met expliciete bestandscontext en stricter outputformaat te verplaatsen, ongeacht leverancier.

Als je klacht "Ik heb goedkoper of controleerbaar gebruik nodig" is, API-ondersteunde workflows en kleinere gespecialiseerde tools verslaan soms een enige chat UI. HundredTabs gratis hulpprogramma's — van JSON-opmaak tot PDF naar Markdown — kunnen hele klassen chatopvolgingen helemaal verwijderen.

Wat je ook kiest, voer je gouden prompts opnieuw uit en meet: tijd-tot-nuttig-resultaat, aantal vervolgvragen, en hoe vaak je het antwoord verlaat. Die metrieken verslaan merklojaliteit en forumverhalen.

De bodem

ChatGPT is niet dommerder geworden. Het is voorzichtiger, letterlijker, en minder geneigd de gaten die je in je prompts liet op te vullen.

De prompts die "vroeger werkten" vertrouwden erop dat het model genereus was in interpretatie. Dat is niet betrouwbaar over modelversies. Gestructureerde prompts werken op elk model, elke versie, elke keer.

Als je gefrustreerd bent met AI-outputkwaliteit in 2026, is de oplossing niet een nieuw abonnement. Het is een betere prompt.

Tools in dit artikel