根据IBM的数据,16%的数据泄露事件现在涉及AI工具。您将客户信息粘贴到ChatGPT中、专有代码粘贴到Claude中、财务数据粘贴到Gemini中——而您不知道这些平台中的哪一个会使用您的输入来训练他们的下一个模型。以下是截至2026年4月每个主要AI工具隐私政策的真实分析。

快速事实
  • ChatGPT Free:默认使用您的数据进行训练。可在设置中选择退出。
  • ChatGPT Plus:默认使用您的数据进行训练。提供相同的退出选项。
  • Claude Free:不对您的对话进行训练。
  • Claude Pro:不对您的对话进行训练。
  • Gemini Free:对您的数据进行训练。人工审核员可能会阅读对话。
  • Gemini Advanced:采用相同的训练政策。可选择退出。
  • Perplexity:不使用查询来训练模型。
  • 所有工具:在其服务器上临时处理您的数据——除非您运行本地模型,否则没有什么是真正"本地"的。
  • 最后验证:2026年4月

隐私矩阵

ChatGPT(OpenAI):默认情况下,您的对话用于训练未来的模型。您可以选择退出:设置 → 数据控制 → "改进所有人的模型" → 关闭。但这会禁用对话历史。2026年2月添加的广告引发了额外的数据收集担忧——广告定向通常需要对用户交互的行为分析。

Claude(Anthropic):Anthropic不会在任何版本中对您的对话进行训练。他们的隐私政策明确声明用户对话不用于模型训练。这是主要提供商中最干净的隐私立场。

Gemini(Google):与Gemini的对话可能由人工注释员审查,并用于改进Google的AI模型。鉴于Google的广告业务模式,数据收集基础设施比大多数竞争对手更广泛。可以选择退出,但该选项深藏在设置中。

Perplexity:不使用您的搜索查询来训练模型。但是,查询会被临时存储以用于服务交付。该公司的商业模式基于订阅,而非广告,这降低了进行积极数据收集的结构性激励。

Copilot(Microsoft):企业和商业版本具有强大的隐私保证——数据不用于训练。消费者版本不太清楚。Microsoft的企业协议属于业界最具隐私保护性的。

觉得有价值?我们通过诚实的分析涵盖AI隐私和政策。加入保持信息灵通的读者 →

您永远不应该粘贴到任何AI工具中的内容

无论隐私政策如何,将每次AI交互都视为可能不隐私。永远不要粘贴:密码、API密钥或身份验证令牌。社会安全号码、财务账户号码或个人医疗记录。机密客户文件或通信。构成商业机密的专有源代码。他人的私人通信(未经其同意)。

隐私意识的AI堆栈

如果隐私是优先考虑事项,这是最小化暴露的堆栈。Claude Pro(每月$20)用于大多数任务——不对对话进行训练,无广告,最干净的隐私政策。Perplexity用于研究——不进行查询训练,基于订阅的模式。通过Ollama本地模型用于高度敏感的工作——没有任何内容离开您的设备。总成本:每月$20加上能够运行本地模型的计算机。

如需所有AI工具的完整比较,包括隐私政策,请参阅我们的AI模型状态页面。

底线

您的AI工具的隐私政策之所以重要,是因为您在向它输入您的思想——您的策略、您的客户数据、您的竞争情报。使用您数据进行训练的工具和不使用的工具之间的区别,就像是一个员工和一个在归还您的文件前复印所有内容的承包商之间的区别。

选择商业模式不依赖于将您的输入货币化的工具。

这是我们每周要做的。关于AI工具、工作流和诚实观点的深度分析——没有炒作,没有冗余。加入我们 →

披露:本文中的某些链接是联属链接。我们仅推荐我们亲自测试和定期使用的工具。请参阅我们的完整披露政策