AI 不会故意撒谎。它不知道真实和虚构之间的区别。当 ChatGPT 自信地引用一项不存在的研究,或 Claude 编造一个听起来合理的统计数据时,它正在做它被设计来做的事情:预测最可能的下一个词。有时,最可能的词是错的。这被称为幻觉,理解它是安全使用 AI 最重要的一件事。

快速事实
  • 它是什么:AI 生成听起来自信但实际上不准确的信息
  • 为什么会发生:AI 预测可能的文本,而不是经过验证的事实
  • 有多常见:因模型和任务而异——在特定事实、日期和引用中最频繁
  • 最危险的:当输出听起来合理且你没有验证时
  • 最佳预防:使用 Perplexity 获取事实(它引用来源),始终验证关键信息
  • 最后验证:2026 年 4 月

为什么 AI 会产生幻觉

AI 模型通过分析大量文本中的模式来学习。它们学习到某些词语和短语通常一起出现。当你提问时,模型通过预测最可能跟随的词语来生成响应——而不是在数据库中查找事实。

这意味着 AI 非常擅长生成听起来正确并且通常实际上正确的文本。但当它遇到一个"听起来正确"的答案和"实际正确"的答案不同的问题时,它会选择听起来正确的那个。每一次都是。

常见的幻觉模式:伪造不存在的引文和研究论文、编造听起来合理的统计数据、将过时的信息说成是当前的、自信地回答它没有足够信息回答的问题、在总结真实事件时创造虚构细节。

5 种捕捉幻觉的方法

1. 对任何需要真实的内容使用 Perplexity。Perplexity 搜索网络并引用来源。如果一个声明很重要,请在 Perplexity 中验证它,而不是相信 ChatGPT 或 Claude。

2. 问 AI 它有多自信。"你对这个答案有多自信?哪些部分可能是错的?"AI 工具在直接被问及时越来越擅长承认不确定性。

3. 用第二个 AI 进行交叉检查。如果 ChatGPT 给你一个统计数据,问 Claude 同样的问题。如果他们不同意,至少有一个是错的——进一步调查。

4. 对具体数字持怀疑态度。精确的百分比、金额、日期和引用是最常被幻觉的细节。一般趋势和概念比具体数据点更可靠。

5. 在发布、展示或决策前验证。这是唯一重要的规则。任何你在面向公众的工作、商业决策或重要沟通中使用的来自 AI 的事实都应该独立验证。

从中获得价值?我们每周发布关于有效和安全使用 AI 的内容。加入保持信息灵通的读者 →

幻觉不重要的时候

并不是每个 AI 任务都需要事实准确性。头脑风暴想法、起草创意内容、探索写作风格、生成代码结构、思考假设场景——这些任务不会因为偶尔的不准确而受损,因为你使用的输出是一个起点,而不是事实来源。

危险区域很小但很重要:当你需要事实、数字、引文、法律解释、医学信息或任何你会作为真实呈现的声明时。对于这些任务,AI 是一个助手,而不是权威。

有关有效使用 AI 工具的更多信息,请查看我们的初学者指南或在我们的AI 模型现状页面比较 AI 模型。

这是我们每周做的事情。一次关于 AI 工具、工作流和诚实观点的深入探讨——没有炒作,没有填充。加入我们 →

披露:本文中的一些链接是附属链接。我们只推荐我们亲自测试并定期使用的工具。请参阅我们的完整披露政策