Vous ne vous imaginez rien.
Ce prompt qui vous donnait autrefois un brouillon de blog parfait ? Maintenant, il retourne une version édulcorée, remplie de nuances, qui refuse de s'engager sur ce que vous avez demandé.
Le modèle d'e-mail qui sonnait comme si vous l'aviez écrit ? Maintenant, il ressemble à un bot de service client formé sur des documents de conformité d'entreprise.
Vous n'avez pas empiré dans l'art de faire des prompts. ChatGPT a changé.
Voici ce qui s'est réellement passé — et cinq choses que vous pouvez faire à ce sujet dès maintenant.
Ce qui a changé (et quand)
OpenAI a apporté des ajustements de modèle importants à la fin de 2025 et au début de 2026. Les changements se divisent en trois catégories :
Le réglage de sécurité est devenu plus agressif. ChatGPT ajoute maintenant plus de nuances, insère des avertissements plus souvent, et refuse les cas limites qu'il gérait autrefois correctement. Si vous avez remarqué plus de réponses « Je ne peux pas vous aider avec ça » ou « Il est important de noter que... », c'est pour cette raison.
Dans le travail quotidien, le réglage de sécurité agressif se manifeste souvent par des « paragraphes de vérification préalable » — deux phrases de contexte avant la réponse — ou un refus qui semble étrangement étroit par rapport à ce que vous avez demandé. Si votre tâche est véritablement bénigne mais adjacent à une catégorie sensible (santé, sécurité, juridique), vous pouvez parfois récupérer la qualité en reformulant comme processus (« expliquer comment une équipe examinerait ceci ») plutôt que de demander des jugements définitifs.
L'optimisation des coûts a changé le comportement du modèle. OpenAI traite des milliards de requêtes. Les petits gains d'efficacité à leur échelle se traduisent par des millions d'économies. Certains utilisateurs rapportent que les réponses semblent plus courtes, moins détaillées et plus formulaires — compatible avec un modèle optimisé pour le débit plutôt que la profondeur.
Même lorsque la capacité moyenne reste élevée, les défauts orientés vers le débit peuvent modifier ce que vous voyez dans l'interface : les premiers brouillons plus courts, moins de sections optionnelles, et moins d'exploration « voici trois directions créatives » sauf si vous le demandez explicitement. Cela peut sembler une baisse de qualité si vos anciens prompts s'appuyaient sur le modèle qui proposait volontairement une structure.
Le modèle de base a changé. GPT-4o, GPT-4.5 et GPT-5.5 se comportent différemment. Si vous aviez construit des prompts accordés au comportement de GPT-4, ils peuvent ne pas fonctionner de la même manière sur les versions plus récentes. La personnalité, la verbosité et les modèles de raisonnement ont changé entre les versions.
Ces décalages arrivent rarement comme un moment de communiqué de presse unique. En pratique, vous les remarquez quand un modèle qui fonctionnait pendant des mois semble soudainement « décalé » — les mêmes instructions, les mêmes exemples dans votre prompt, mais la sortie s'oriente vers des résumés génériques, des listes à puces qui répètent votre demande, et moins de recommandations concrètes. Cette inadéquation est souvent un changement de version ou de routage en arrière-plan, pas une mystérieuse baisse de vos compétences.
Un autre modèle que les gens oublient : votre propre utilisation a changé. Au début, vous auriez pu utiliser ChatGPT pour des brouillons rapides et du brainstorming. Maintenant, vous pourriez lui demander d'interpréter des contrats, de commenter des sujets adjacents à la médecine, ou de gérer tout ce qui déclenche une logique de refus plus stricte. Le modèle n'est pas identique à travers les niveaux de risque, et l'expérience produit peut vous acheminer à travers différentes protections en fonction du sujet et des paramètres du compte.
Si vous voulez un moyen pratique de comparer le comportement sans vous perdre, conservez un fichier « prompt d'or » : cinq tâches que vous exécutez trimestriellement (réécrivez ce paragraphe, déboguez ce snippet, esquissez cette présentation, critiquez cette page de destination, résumez ce chunk PDF). Lorsque la qualité de sortie change, vous avez une référence datée au lieu d'une mémoire basée sur les intuitions.
Le vrai problème : vos prompts n'ont pas été adaptés
Voici la vérité inconfortable : la plupart des gens ont écrit des prompts qui fonctionnaient en raison des tendances spécifiques de GPT-4, pas parce que les prompts étaient bien structurés.
GPT-4 était verbeux par défaut. Il vous donnerait 2 000 mots quand vous lui demandiez un résumé. Il déduirait généreusement votre intention. Il prendrait des libertés créatives que vous n'aviez pas explicitement demandées.
Cette verbosité n'était pas toujours bonne — elle pouvait enterrer la réponse — mais elle créait une illusion de compétence parce que le modèle compensait les lacunes de votre demande. Si vous aviez l'habitude de demander « résumez cette réunion » sans participants, sans décisions et sans objectif, GPT-4 pouvait quand même produire quelque chose de plausible. Un modèle plus littéral pourrait retourner un résumé maigre ou poser des questions de clarification, ce qui est perçu comme moins utile même quand c'est plus honnête.
Les modèles plus récents sont plus littéraux. Plus conservateurs. Plus susceptibles de vous donner exactement ce que vous avez demandé — ce qui signifie que les prompts vagues obtiennent des résultats vagues.
Ce n'est pas le modèle qui devient plus bête. C'est le modèle qui devient plus obéissant. Et obéissant + instructions vagues = mauvaise sortie.
Voici un exemple concret. Supposons que vous demandiez « des commentaires sur mes puces de CV ». Un modèle plus interprétatif pourrait déduire votre secteur, déduire votre ancienneté et réécrire les puces agressivement. Un modèle plus littéral pourrait retourner une liste de contrôle poli (« envisagez de quantifier l'impact ») sans toucher à votre texte — techniquement réactif, pratiquement inutile. La solution n'est pas d'abandonner ; c'est de spécifier le rôle du CV, la famille de poste cible, ce que « bon » signifie (deux exemples de puces que vous admirez), et si vous voulez des réécritures ou seulement des annotations.
La même dynamique apparaît dans le codage. « Pourquoi c'est lent ? » avait l'habitude de recevoir des suggestions d'optimisation spéculatives. Maintenant, vous pouvez obtenir une liste minutieuse d'étapes de profilage en premier. Cela peut sembler être une régression si vous vouliez des changements de code immédiats — mais c'est souvent le modèle suivant un style de suivi d'instructions plus conservateur. Donnez-lui la permission : « Supposez que j'ai déjà profilé ; voici les minutages ; proposez seulement des changements de code. »
5 solutions qui fonctionnent réellement
Solution 1 : ajouter une identité
Ancien prompt : « Écris-moi un e-mail marketing. »
L'ancien GPT-4 déduirait un ton, choisirait un style, ajouterait une personnalité. Les nouveaux modèles jouent la sécurité.
Prompt corrigé : « Tu es un copywriter senior qui as écrit des campagnes d'e-mail pour Shopify et Mailchimp. Écris un e-mail marketing pour [produit]. Ton : direct, légèrement irrévérencieux, pas de langage d'entreprise. »
L'identité donne au modèle la permission d'avoir une voix. Sans elle, vous obtenez la valeur par défaut : fade, sûr, oubliable.
Un autre gain rapide : ajouter une ligne « exemple négatif » — quel ton vous ne voulez pas. Par exemple : « Évitez le cadence du gourou LinkedIn, pas de « approfondir » ou « panorama », pas d'enthousiasme faux. » Cette contrainte réduit la probabilité de la voix générique du blog SaaS que de nombreux utilisateurs se plaignent en 2026.
Solution 2 : Dites-lui ce qu'il NE faut PAS faire
Les nouveaux modèles surpondèrent sur la sécurité et la politesse. Comptez sur ceci explicitement :
« Pas de clauses de non-responsabilité. Pas de « il est important de noter ». Pas de nuances. Donne-moi ta véritable évaluation, pas une non-réponse diplomatiquement équilibrée. »
Cette seule ligne ramène la franchise que GPT-4 avait par défaut.
Vous pouvez empiler des instructions « anti-nuance » avec une rubrique de notation quand cela aide : « Classez les options A/B/C avec un seul gagnant ; en cas d'incertitude, dites quelles données résoudraient l'incertitude ; ne présentez pas une égalité en cinq paragraphes. » Les rubriques semblent d'entreprise, mais elles fonctionnent parce qu'elles forcent une limite de décision.
Solution 3 : Ajouter des contraintes
« Moins de 200 mots. Pas de préambule. Commencez par la recommandation, puis expliquez pourquoi. »
Les contraintes forcent le modèle à prioriser. Sans elles, vous obtenez la longueur et la structure par défaut du modèle — qui sur les versions plus récentes tend à être prudent et rembourré.
Les contraintes aident également quand vous avez besoin d'artefacts structurés : « Sortie sous forme de tableau avec colonnes Risque / Atténuation / Propriétaire » ou « Retournez les clés JSON : résumé, action_items, open_questions. » Les résultats structurés réduisent le délire et rendent l'édition en aval plus rapide dans Notion, Google Docs ou votre système de ticketing.
Solution 4 : Essayez Claude
Ce n'est pas une recommandation « juste changer ». Les différents modèles sont meilleurs pour différentes choses :
- Claude excelle dans la rédaction longue, le suivi d'instructions complexes et le maintien d'une voix cohérente sur de longs documents. C'est actuellement le meilleur choix pour la création de contenu, l'analyse de documents et tout ce où vous avez besoin que l'IA suive des spécifications détaillées.
- ChatGPT excelle toujours dans l'exécution de code (exécution de Python dans le navigateur), la génération d'images (DALL-E) et l'ampleur des intégrations (plugins, GPTs, navigation).
- Gemini est le plus fort pour les tâches impliquant des données de l'écosystème Google (Gmail, Drive, Calendrier) et a la plus grande fenêtre de contexte pour traiter des documents très longs.
La bonne réponse n'est pas d'en choisir un — c'est de savoir lequel utiliser pour quoi. Essayez notre Model Picker gratuit pour faire correspondre votre tâche spécifique au meilleur modèle.
Si vous êtes en migration, exécutez le même « prompt d'or » sur ChatGPT et Claude côte à côte pendant une semaine. Vous ne cherchez pas un gagnant pour toujours — vous cherchez quel modèle respecte vos contraintes (longueur, ton, citations, refus) pour le travail que vous faites réellement.
Solution 5 : Utilisez le framework ICCSSE
Chaque bon prompt a jusqu'à six composants :
- Identité — Qui l'IA devrait-elle être ?
- Contexte — Quel est l'arrière-plan ?
- Contraintes — Quelles sont les limites ?
- Étapes — Quel est l'ordre des opérations ?
- Spécifiques — Quels détails exacts comptent ?
- Exemples — À quoi ressemble une bonne sortie ?
Vous n'avez pas besoin de tous les six à chaque fois. Les tâches simples ont besoin de 2-3. Les tâches complexes bénéficient de tous les six.
La différence entre « ChatGPT devient plus bête » et « Je dois mettre à jour mes prompts » est généralement ce framework. Lisez le guide ICCSSE complet ou essayez l'Optimiseur de Prompt pour améliorer automatiquement n'importe quel prompt.
Une autre habitude qui paie : enregistrez « les différences de prompt ». Quand vous modifiez un prompt et la qualité s'améliore, conservez la paire avant/après. Au fil du temps, vous construisez une bibliothèque personnelle de ce à quoi votre pile répond — bien plus utile que de chasser des listes génériques de « meilleurs prompts ».
ChatGPT devient-il plus mauvais ou m'imaginez-je ?
Vous n'imaginez probablement pas un changement de ressenti, mais le saut de « ressenti » à « pire » omet une distinction importante. ChatGPT en 2026 optimise souvent pour un mélange différent d'objectifs que la version sur laquelle vous vous êtes basé : la sécurité, le suivi des instructions, la latence et le coût à une échelle énorme. Ces objectifs peuvent produire des résultats qui semblent moins créatifs même si la capacité sous-jacente est toujours forte pour les tâches bien spécifiées.
Ce qui ressemble à « pire » est fréquemment une inadéquation entre les attentes et les valeurs par défaut. Si vous vous attendez à ce que le modèle déduise un contexte manquant, remplisse la voix de marque et prenne des risques stylistiques, vous remarquerez plus de friction quand la valeur par défaut est la conformité littérale. Cette friction est réelle — c'est juste pas la même chose qu'une baisse du quotient intellectuel.
Un test pratique est la reproductibilité. Si vous pouvez coller le même prompt deux fois et obtenir une qualité matériellement différente, vous pourriez être confronté à des variations de routage, à des différences d'utilisation d'outils ou de mode de navigation — pas un « modèle plus bête » stable. Si la qualité est régulièrement plus basse seulement pour une catégorie de tâches (médical, juridique, politique), vous êtes probablement confronté à un comportement lourd de politique plutôt qu'à une dégradation mondiale.
Enfin, vérifiez votre propre signal de fatigue. Quand les gens sont occupés, ils réutilisent des prompts fragiles (« répare ça ») et interprètent les réponses vagues comme une intelligence inférieure. Le contrôle de santé le plus rapide est de passer dix minutes à serrer les prompts pour vos trois principaux workflows. Si la qualité saute, le goulot d'étranglement était la spécification — ce qui est une bonne nouvelle car c'est réparable sans changer de produit.
Devrais-je passer de ChatGPT à Claude ?
Passez si votre principal problème est la fidélité longue forme : articles multi-sections, réécriture nuancée, longs documents où vous avez besoin d'une voix cohérente, ou des prompts avec de nombreuses contraintes qui doivent toutes tenir en même temps. Claude est souvent la première étape pour les équipes dont les sorties ChatGPT se sentent « aplaties » après les décalages de réglage 2025-2026.
Restez sur ChatGPT (ou gardez les deux) si vos workflows dépendent des forces natives de ChatGPT : l'exécution de code dans le navigateur, la génération d'images, certaines intégrations, ou un habit stack construit autour des GPTs et de l'outillage que vous ne voulez pas reconstruire. De nombreux utilisateurs avancés ne « changent » pas ; ils acheminent les tâches par type de la même manière que vous choisiriez Postgres vs Elasticsearch en fonction de la charge de travail.
Si vous changez, engagez-vous pendant deux semaines sur le travail réel, pas des prompts jouets. Reconstruisez une poignée de modèles avec une structure de style ICC, puis comparez les résultats en termes de vitesse, d'éditions requises et de taux de refus. Regardez aussi le coût : une « meilleure sortie » qui nécessite deux fois plus d'itérations n'est pas réellement mieux pour votre calendrier.
Si vous ne savez pas, commencez par le Model Picker puis validez avec l'Optimiseur de Prompt afin que vous ne compariez pas les modèles en utilisant des prompts déloyalement paresseux.
Quelle est la meilleure alternative à ChatGPT en 2026 ?
Il n'y a pas un seul gagnant — la meilleure alternative dépend de si vous vous souciez surtout de la rédaction, des citations de recherche, de l'exécution de code, de l'intégration Google Workspace ou des préférences de confidentialité locale. Cela dit, la « meilleure alternative par défaut » la plus courante pour les utilisateurs lourds de ChatGPT en 2026 reste Claude pour la rédaction et le travail documentaire, Perplexity pour la recherche sourcée, et Gemini quand vos entrées vivent dans Gmail/Drive/Calendar et que vous voulez une intégration étroite.
Pour le codage spécifiquement, le paysage s'est scindé : ChatGPT reste fort en tant que programmeur pair généraliste, tandis que des outils comme Cursor et Claude Code rivalisent sur la façon dont vous voulez que l'IA touche à votre repo (éditeur-natif vs agentique). Si votre plainte est « ChatGPT semble abrégé pour les critiques de code », essayez de déplacer les critiques vers un workflow avec un contexte de fichier explicite et un format de sortie plus strict, quel que soit le fournisseur.
Si votre plainte est « J'ai besoin d'une utilisation moins chère ou plus contrôlable », les workflows sauvegardés par API et les outils spécialisés plus petits battent parfois une interface de chat unique. Les utilitaires gratuits HundredTabs — de la formatage JSON au PDF to Markdown — peuvent éliminer des classes entières d'allers-retours de chat.
Quoi que vous choisissiez, réexécutez vos prompts d'or et mesurez : le temps jusqu'à une sortie utile, le nombre de suivis et la fréquence à laquelle vous abandonnez la réponse. Ces métriques battent la loyauté envers la marque et les anecdotes de forum.
La conclusion
ChatGPT n'est pas devenu plus bête. Il est devenu plus conservateur, plus littéral et moins susceptible de combler les lacunes que vous avez laissées dans vos prompts.
Les prompts qui « avaient l'habitude de fonctionner » s'appuyaient sur le modèle étant généreux avec l'interprétation. Ce n'est pas fiable dans les versions de modèles. Les prompts structurés fonctionnent sur tous les modèles, toutes les versions, à chaque fois.
Si vous êtes frustré par la qualité de sortie de l'IA en 2026, la solution n'est pas une nouvelle souscription. C'est un meilleur prompt.
- Optimiseur de Prompt — collez n'importe quel prompt, obtenez une version améliorée
- Model Picker — trouvez le bon IA pour votre tâche
- Guide du framework ICCSSE — le framework de prompting complet
- Comparer les modèles — comparaison côte à côte de l'IA