MCP — 模型上下文协议 — 是一种开放标准,它让 AI 助手通过单一通用接口连接外部工具、数据和服务。可以将其视为 AI 的 USB-C:不再需要每个 AI 应用为每个工具开发定制连接器,MCP 提供一种通用的协议,到处适用。
如果你用过 Claude 的桌面应用并将其连接到你的 Google Drive,你就已经使用过 MCP 了。如果你见过像 Cursor 或 Claude Code 这样的 AI 编码工具从 GitHub 拉取实时数据 — 那也是 MCP。该协议于 2024 年 11 月推出,到 2026 年中,已成为 AI 连接现实世界的标准方式。
本指南解释了 MCP 是什么,为什么即使你不是开发者它也很重要,以及它如何改变你已有的工具。
为什么会有 MCP?
MCP 之前,每个 AI 集成都是定制开发的。想让 ChatGPT 阅读你的 Slack 消息?有人得为 Slack 开发特定插件。想让 Claude 查询你的数据库?有人得写一个定制连接器。想让 Gemini 访问你的 Google Drive?Google 得从头构建那个集成。
这导致了工程师们称之为“N×M 问题”的情况。如果你有 10 个 AI 应用和 50 个工具,你就需要 500 个定制集成。每个新 AI 模型意味着再加 50 个集成。每个新工具意味着再加 10 个。这无法扩展。
MCP 将其简化为“N+M”。为你的工具构建一个 MCP 服务器,它就能与所有支持 MCP 的 AI 应用配合。为你的 AI 应用内置一个 MCP 客户端,它就能连接所有兼容 MCP 的工具。10 个 AI 应用加 50 个工具,只需 60 个实现,而不是 500 个。
大多数人一听就懂的比喻:在 USB-C 之前,每款手机都有不同的充电器。每台相机都有不同的线缆。USB-C 让一根线缆适用于一切。MCP 为 AI 到工具的连接做了同样的事。
MCP 如何工作?
MCP 有三个协同工作的角色:
主机 是你的 AI 应用 — Claude Desktop、ChatGPT、Cursor 或任何带 AI 助手的应用。主机是你与之互动的部分。它运行一个 MCP 客户端,处理与服务器的通信。
服务器 是一个小型程序,连接到特定工具或数据源。有 GitHub 的 MCP 服务器、Slack 的、Google Drive 的、PostgreSQL 的,还有数百个其他服务器。每个服务器以标准化方式暴露其工具的功能。
协议 是它们的交流语言。它基于 JSON-RPC 2.0(一种简单、成熟的消息格式)。主机询问“你能做什么?”,服务器回应其可用工具、资源和提示模板。
当你让 Claude “显示 #engineering 频道最近 10 条 Slack 消息”时,这里发生的事:Claude 的 MCP 客户端联系 Slack MCP 服务器,发现它有“读取消息”工具,用你的参数调用该工具,接收消息,并以自然语言呈现给你。你看不到协议 — 你只得到答案。
MCP 中的工具、资源和提示是什么?
每个 MCP 服务器可以暴露三种能力:
工具 是 AI 可以执行的动作 — 发送消息、创建文件、运行数据库查询、打开拉取请求。工具是 AI 的“双手”。每个工具有名称、描述和定义的输入/输出,以便 AI 正确使用。
资源 是 AI 可以读取的数据 — 一份文档、数据库行、Jira 工单的当前状态、日志文件。资源提供上下文。AI 可以在生成响应前拉取相关信息,让答案基于真实数据,而非仅靠训练知识。
提示 是服务器提供的可复用模板 — “总结这个 PR”、“根据这些提交起草站会更新”、“分析这个错误日志”。这些编码了特定任务的最佳实践,你无需每次从头编写提示。
并非每个服务器都暴露所有三种。只读服务器如文档搜索可能只提供资源。GitHub 服务器提供工具(创建 issue、合并 PR)、资源(读取文件内容)和提示(总结 PR 变更)。
--- 📬 从中获得价值? 我们每周发布一篇关于 AI 工具和工作流的深度解析。 加入收到邮箱推送的读者 → ---谁在今天使用 MCP?
截至 2026 年中,MCP 已获每个主要 AI 平台采用:
Anthropic 创建了 MCP,并在 Claude Desktop 和 Claude Code 中原生使用。当你将 Claude Desktop 连接到文件系统、Google Drive 或 GitHub 时,那是在幕后运行的 MCP。
OpenAI 在 2026 年初为 ChatGPT 添加了 MCP 支持。ChatGPT 的应用集成 — 从对话中连接第三方服务 — 使用 MCP 作为通信层。
Google 随后为 Gemini 添加了 MCP 支持。像 Cursor、Windsurf 和 Sourcegraph Cody 这样的开发者工具都支持 MCP 用于其工具集成。
服务器端,有超过 1,000 个社区构建的 MCP 服务器,覆盖 GitHub、Slack、PostgreSQL、Stripe、Figma、Docker、Kubernetes、Notion、Linear、Jira,以及几乎所有你能想到的开发和业务工具。官方注册表 在 GitHub 上跟踪它们所有。
2025 年 12 月,Anthropic 将 MCP 捐赠给 Linux Foundation 下的 Agentic AI Foundation,该基金会由 Block 和 OpenAI 共同创立。这使其成为真正的开放标准,而非单一公司的项目。
MCP 与 ChatGPT 插件有何不同?
如果你记得 2023 年的 ChatGPT 插件系统,你可能会好奇 MCP 有何不同。关键区别在于插件是 OpenAI 专有的。ChatGPT 插件只在 ChatGPT 中工作。如果你想在 Claude 中实现相同集成,得从头再建。
MCP 是模型无关的。为 GitHub 构建的 MCP 服务器可与 Claude、ChatGPT、Gemini、Cursor 和任何其他兼容 MCP 的主机配合。建一次,到处连接。
MCP 也更强大。插件只能发送和接收文本。MCP 支持工具(动作)、资源(数据)和提示(模板),加上流式传输、认证和错误处理 — 全部标准化。
MCP 对你意味着什么?
如果你不是开发者,MCP 仍以三种方式影响你的日常 AI 体验:
你的 AI 应用将更快连接更多工具。 因为 MCP 是标准化的,新集成会出现得很快。当一个工具发布 MCP 服务器时,它立即与所有支持 MCP 的 AI 应用兼容。你无需等几个月让你的 AI 支持你喜欢的工具。
你可以切换 AI 模型而不丢失集成。 如果你通过 MCP 将 10 个工具连接到 Claude,后来切换到 ChatGPT,那些相同的 MCP 服务器也在那里可用。你不再因集成而被锁定在单一 AI 平台。
AI 代理变得实用。 能规划、推理并执行多步动作的 AI 代理需要可靠访问真实工具。MCP 提供那种可靠性。没有像 MCP 这样的标准,每个代理都是脆弱的定制构建。有 MCP,代理可以接入任何支持该协议的工具。这就是为什么像 Claude Code 和 Codex 这样的 AI 编码代理 变得实用 — 它们用 MCP 与你的代码、终端和外部服务互动。
如何开始使用 MCP
尝试 MCP 最简单的方式是用 Claude Desktop:
步骤 1: 从 claude.ai/download 下载 Claude Desktop。MCP 只在桌面应用中工作,不支持浏览器。
步骤 2: 打开设置 → MCP 服务器。你会看到添加服务器的选项。
步骤 3: 添加内置服务器 — 文件系统访问是最简单的起点。将它指向一个项目文件夹。现在 Claude 可以读取你的文件、搜索文档,并帮助你处理需要了解文件夹内容的任务。
步骤 4: 试试社区服务器。MCP GitHub 组织 有 GitHub、Google Drive、Slack 等参考服务器。每个服务器的 README 中有安装说明。
如果你是开发者,你可以用 TypeScript、Python、C#、Java、Kotlin、Go 或 Ruby 的官方 SDK 构建自己的 MCP 服务器。一个暴露单个工具的基本服务器只需约 50 行代码。
MCP 与函数调用与 RAG 的区别
三个常被混淆的术语:
函数调用 是让 AI 模型调用特定函数的 API 机制 — OpenAI 的函数调用、Anthropic 的工具使用、Google 的函数调用。这些是供应商特定的实现。MCP 作为协议层在其之上。MCP 告诉模型有哪些工具;函数调用是模型实际调用它们的方式。
RAG(检索增强生成) 是一种通过在生成答案前检索相关文档来改善 AI 响应的技术。MCP 资源可用于 RAG — 服务器可为 AI 提供参考的相关文档。但 MCP 还支持动作(工具)和模板(提示),这些 RAG 不覆盖。
实际上,大多数现代 AI 系统三者兼用:MCP 用于集成层,函数调用用于调用机制,RAG 用于知识检索。它们是互补的,不是竞争的。
常见问题
MCP 只适用于 Claude 吗?
不是。MCP 是模型无关的。OpenAI、Google 和许多开源项目都支持它。它是通用标准,不是 Anthropic 专属功能。
使用 MCP 需要编程吗?
不需要。如果你用 Claude Desktop 或其他兼容 MCP 的应用,你可以通过设置添加预构建的 MCP 服务器,无需写代码。只有想构建自己的服务器时才需要编程。
MCP 安全吗?
MCP 支持认证和范围权限,但安全性取决于每个服务器的实现。只连接可信的 MCP 服务器,尤其是访问敏感数据的服务器。协议让你控制每个服务器能访问什么。
MCP 会取代 API 吗?
不会。MCP 包装 API 让它们对 AI 模型可用。你现有的 REST 和 GraphQL API 仍服务人类客户端和传统应用。MCP 在其上添加 AI 友好层。
---MCP 正在悄然成为 AI 中最重要的基础设施。如果你每天使用 AI 工具,你可能已在不知不觉中受益。随着更多服务器推出和更多应用采用该标准,你使用的 AI 工具将变得强大得多 — 不是因为模型变聪明了,而是因为它们终于能连接现实世界。
想看看 AI 拥有真实工具时能做什么?试试我们的免费 Prompt Optimizer — 它用结构化提示在几秒内改善任何 ChatGPT、Claude 或 Gemini 提示。
--- 📬 想要更多这样的内容? 我们每周发布一篇实用的 AI 指南 — 无炒作,只有有效的工作流和工具。 免费订阅 → ---披露:本文中有些链接是联盟链接。我们只推荐我们亲自测试并定期使用的工具。查看我们的完整披露政策。