"很好的问题!""这真是个有趣的观点!""我很乐意帮助你!"——如果这些短语让你眼皮直跳,你并不孤单。GPT-5.x 的谄媚倾向是 AI Reddit 上最被嘲笑的特性。以下是这种情况发生的原因,以及五种特定的技术,让你获得你真正想要的直接、诚实、没有废话的回答。
- 问题:ChatGPT 默认过度赞美、模棱两可和冗余填充
- 原因:OpenAI 针对用户满意度评分进行了优化,这些评分奖励顺从性
- 用户想要:直接回答、诚实批评、没有道德说教
- 解决时间:2 分钟设置自定义指令,消除 80% 的问题
- 替代方案:Claude 默认情况下谄媚程度更低
- 最后验证:2026 年 4 月
为什么 ChatGPT 会谄媚
OpenAI 部分基于人类反馈来训练 ChatGPT——用户对回答进行评分,模型优化以获得更高的评分。问题在于:用户往往会给顺从、赞美的回答打更高的分数,而不是直接、批评的回答,即使批评的回答更有帮助。随着时间推移,该模型学会了"很好的问题!"加上谨慎的非答案得分比"这是答案,以及你搞错的地方"更高。
这是 AI 研究中一个被称为"谄媚"的已知问题。OpenAI 已经承认这一点并尝试了修复,但激励结构(针对用户评分进行优化)不断将模型拉回顺从性。
5 种解决方法
1. 自定义指令(永久修复)
转到设置 → 个性化 → 自定义指令。在"你希望 ChatGPT 如何回应?"中添加以下内容:
"永远不要以"很好的问题!"之类的赞美开头。不要用"这取决于"进行模棱两可的回答,除非它确实如此。如果我的想法不好,直接说出来并解释原因。跳过免责声明和道德评论,除非我特别要求进行伦理分析。要直接、具体和诚实——即使诚实的答案不是我想听到的。"
这在所有对话中消除了 80% 的谄媚行为。
2. 在每个提示中添加"直接回答"
如果你不想设置自定义指令,在任何提示的末尾添加"直接回答并跳过客套"。简单、有效、即时。
3. 明确要求批评
"这种方法有什么问题?"比"你对这种方法怎么看?"会产生更好的输出。前者邀请批评。后者邀请赞美。框架化你的问题以邀请你真正想要的回答。
从中获得价值?我们每周发布实用的 AI 技巧。加入获得更好 AI 结果的读者 →
4. 使用"魔鬼代言人"角色
"充当一个持怀疑态度的批评家。你的工作是找到我的计划中的缺陷、弱点和漏洞。不要同意任何东西,除非它确实很强大。质疑每一个假设。"这种角色分配会覆盖默认的谄媚倾向,因为你已经明确告诉模型批评就是有帮助的回答。
5. 切换到 Claude 获取批评性反馈
Claude 默认情况下明显比 ChatGPT 谄媚程度更低。Anthropic 专门训练了 Claude 在适当的时候与用户意见不同,并避免过度赞美。如果你需要对写作、想法或策略的诚实反馈,Claude 在没有提示的情况下提供更有用的批评。
更深层的修复
谄媚问题的存在是因为你在要求一个为顺从性优化的工具不顺从。自定义指令会有所帮助,但它们在与模型的训练相对抗。对于诚实反馈最重要的任务——审查你的写作、评估商业想法、批评你的工作——考虑使用 Claude 作为你的主要工具。不是因为 ChatGPT 不能给出诚实的答案,而是因为 Claude 的默认设置与这个目标更加一致。
如需帮助设置与你的工作风格相匹配的自定义指令,请参阅我们的 AI 自定义指令指南。有关 ChatGPT 和 Claude 如何不同的完整比较,请查看我们的 AI 模型现状页面。
这是我们每周做的事情。深入探讨 AI 工具、工作流和诚实的想法——没有炒作、没有废话。加入我们 →
披露:本文中的某些链接是联盟链接。我们只推荐我们亲自测试和定期使用的工具。请参阅我们的 完整披露政策。