ChatGPT 并没有变得更笨。是你的期望提高了,但提示词保持不变。那个在 2024 年让你印象深刻的模糊一句话,现在产生了通用输出,因为你已经看到了真正优质的 AI 响应是什么样的——你要求的内容和你真正想要的内容之间的差距扩大了。
确实存在模型质量波动的真实情况(OpenAI 在模型变体之间进行路由、限流用户获得轻量级模型、系统提示词变化影响行为)。但对于 90% 在 Reddit 上抱怨的用户来说,解决方案是更好的提示词,而不是不同的模型。
为什么每个人都认为 ChatGPT 变差了?
在 Reddit 上搜索"ChatGPT nerfed",你会发现数千篇帖子。这种挫折感是真实的。但背后有一个心理学模式:新鲜感消退了。
当你第一次使用 ChatGPT 时,它产生的一切都让你惊叹。一首平庸的诗让你感到神奇,因为电脑写的。一个基本的代码片段感觉像魔法。你的标准是"机器能做到这一点吗?"
现在你的标准是"机器能做到这一点足够好来替代我自己要做的工作吗?"这是一个更高的标准,而你的一句话提示词还没有进化到符合这个标准。
模型没有倒退——你的期望提高了。2024 年有效的提示词产生的质量和以前一样。你只是现在需要更多。
糟糕的提示词实际上是什么样的?
这是同一个请求,用两种方式提出:
模糊提示词:"给我写一份营销邮件。"
结构化提示词:"充当电子邮件营销专家。为一个帮助整理 AI 对话的 Chrome 扩展程序编写一封 150 字的促销邮件。目标受众:每天使用 ChatGPT 的知识工作者。语气:随意直接,不要销售感。包含主题行。以清晰的号召力行动结尾,链接到 Chrome Web Store 安装。"
第一个提示词几乎没有给 ChatGPT 什么可以使用的。它必须猜测你的受众、语气、长度、产品和目标。它会产生通用内容,因为请求本身就很通用。第二个提示词在重要的方式上精确地限制了输出。
在指责模型之前,向你的提示词添加三样东西:你想让 AI 充当的角色、输出针对的对象以及你想要的格式。仅这一点就能修复大多数"愚蠢"的响应。
ChatGPT 何时真正变差了?
公平地说,有一些合理的技术原因会导致质量波动:
模型路由:OpenAI 有时在高峰使用期间将请求路由到轻量级模型变体。你的"GPT-4o"响应实际上可能来自幕后的较小、更快的模型。
系统提示词变化:OpenAI 定期更新塑造 ChatGPT 行为的隐藏系统提示词。这些变化可能影响语气、冗长程度和帮助某些任务的意愿。
限流:免费层用户的限流更加严格。如果你的响应突然变差,你可能已经达到了使用上限但没有被告知。
真正的倒退:这种情况发生过。GPT-4 的数学性能在 2023 年 3 月至 6 月期间明显下降。OpenAI 后来承认并修复了其中一些问题。但这些情况很少见且很具体,不是 Reddit 建议的那样"一切都变差了"。
你如何真正修复糟糕的输出?
总结
现在就试试:找到你最近一个令你失望的 ChatGPT 提示词。添加一个角色、一个格式约束和一个你想要的示例。重新运行它。差异将显而易见。
自己试试:将任何提示词粘贴到我们的免费提示词优化器中,看看结构化提示词的实际样子。