你肯定注意到了:ChatGPT 开始表现不错,但在 10-15 条消息后,它就会忘记你之前说过的话,自相矛盾,给出通用答案。这不是 bug——这是 AI 工作方式的一个特性,叫做"上下文窗口"。理解它只需 5 分钟,能永久改善你使用每个 AI 工具的方式。

快速要点
  • 什么是它:AI 在对话中能"记住"的最大文本量
  • ChatGPT (GPT-5.4):256K tokens(约 190,000 个单词)
  • Claude (Opus 4.7):1M tokens(约 750,000 个单词)——目前最大
  • Gemini 2.5 Pro:1M tokens
  • 为什么对话质量下降:当窗口填满时,早期消息会被压缩或丢弃
  • 解决方案:针对新话题开始新的对话
  • 最后验证时间:2026 年 4 月

它是如何工作的(没有技术术语)

想象你在读书,但一次只能拿着 100 页。当你翻到第 101 页时,第 1 页掉到了地上。你仍然可以清楚地参考最近的几页,但早期的页面会变得模糊或完全消失。

这就是上下文窗口。你发送的每条消息、AI 生成的每条回应、你粘贴的每份文档——都会占用窗口空间。一旦对话历史超过窗口限制,AI 就会开始压缩或丢弃早期内容。结果是:它会忘记你之前给的指令,重复已经说过的内容,给出不够具体的答案。

为什么这对你的工作很重要

如果你在使用 Claude 处理一份长文档,已经迭代了 30 条消息,AI 可能已经忘记了你最初关于语气、格式或受众的指令。解决方案很简单:开始新对话,并在第一条消息中包含你的关键指令。

如果你使用 Claude Projects,项目上下文(上传的文档和指令)在对话中保持持久存在——但每个聊天中的对话历史仍然有限制。这就是为什么 Projects 这么强大:你的核心上下文永远不会丢失。

实用规则

为每个新话题开始一个新对话。不要在一个对话线程中处理所有内容——每个新话题都应该有新的上下文窗口。

对于长期项目,定期总结你的进度并粘贴到新对话中。"我们进展如下:[总结]。从这里继续。"

当对话变得奇怪时,通常是上下文窗口的问题。最快的解决方案总是用清晰的指令重新开始。

较短的对话能产生更好的结果,因为 AI 可以充分关注每条消息。质量随长度下降,不是随时间下降。

如需比较所有主要 AI 模型的上下文窗口大小,请查看我们的 State of AI Models 页面。

这是我们每周做的。深入探讨 AI 工具、工作流和诚实看法——没有炒作,没有填充。加入我们 →

声明:本文中的某些链接是联盟链接。我们只推荐亲自测试并定期使用的工具。请查看我们的 完整披露政策