Model Context Protocol (MCP):Anthropic 为互联 AI 制定的开放标准


2025-07-23


抽象可视化图,展示了代表 Model Context Protocol 的互连节点,将 AI 系统连接到各种数据源和工具

AI 模型在理解和生成文本方面已经变得非常强大。然而,大多数模型在功能上仍然是孤立的——无法访问实际工作所在的工具、数据库和应用。这种智能与实用性之间的脱节是实用 AI 部署中最重大的障碍之一。

由前 OpenAI 研究人员创立的 AI 安全公司 Anthropic 认识到了这一根本性限制。2024 年末,他们发布了 Model Context Protocol (MCP)——一个开源标准,旨在通过一个安全、标准化的接口将 AI 系统与外部数据源和工具连接起来。

MCP 解决了一个关键的基础设施缺口:AI 模型缺乏与数字生态系统交互的通用方法。在 MCP 出现之前,每次集成都需要定制开发,这造成了可扩展性瓶颈和安全漏洞。通过建立一个通用协议,Anthropic 旨在实现一个未来,让 AI 智能体能够无缝访问和利用任何支持该标准的工具或数据源。

要理解这为何重要,让我们来看看当今 AI 部署面临的集成挑战。

快速解答:什么是 Model Context Protocol (MCP)?

Model Context Protocol (MCP) 是一个开源标准,它使 AI 模型能够通过统一的客户端-服务器架构安全地连接到外部工具和数据源。 MCP 由 Anthropic 于 2024 年发布,它用一个跨不同 AI 系统工作的标准化协议取代了零散的定制集成。

主要功能:

  • 用于 AI 与工具连接的标准化客户端-服务器架构
  • AI 模型与外部系统之间的安全双向通信
  • 模型无关的设计,支持多个 AI 提供商
  • 促成生态系统范围采用的开源规范

集成挑战:为什么 AI 仍然孤立

尽管模型能力取得了进步,但将 AI 连接到外部系统在技术上仍然复杂且资源密集。对企业 AI 部署的分析揭示了几个持续存在的挑战:

73% 的企业 将集成复杂性列为 AI 采用的主要障碍。

传统的 AI 集成方法产生了四个根本性问题:

  • 可扩展性瓶颈 – 每个工具都需要单独的定制开发
  • 安全漏洞 – 多个集成点增加了攻击面
  • 上下文碎片化 – AI 在工具之间切换时会丢失信息
  • 供应商锁定 – 专有集成将用户与特定提供商捆绑在一起

定制集成开销

在 MCP 出现之前,将 AI 模型连接到外部系统需要为每个工具构建定制的集成。一家希望将 AI 连接到 Slack、Google Drive、GitHub 和内部数据库的公司,需要开发、保护和维护四个独立的连接器。

这种一对一的集成模型带来了指数级的复杂性。对于 10 个工具和 3 个 AI 模型,开发人员必须构建和维护 30 个独立的集成。所需的工程资源很快变得令人望而却步,特别是对于小型组织而言。

安全与访问控制

每个定制集成都会引入潜在的安全漏洞。在数十个临时连接器之间管理身份验证、权限和数据流会产生重大风险。

445 万美元 – 根据 IBM Security 的数据,2023 年数据泄露的平均成本。

没有标准化的安全协议,组织很难确保所有 AI 与工具连接的一致保护。这种碎片化使得全面的安全审计几乎不可能,并增加了配置错误的可能性。

上下文碎片化

传统集成将每个工具连接视为孤立的。当一个 AI 智能体从分析 Google Drive 中的文档切换到在 Slack 中发帖时,它实际上是从头开始——丢失了在前一个任务中建立的上下文和理解。

这种上下文丢失迫使用户反复提供背景信息,削弱了 AI 本应带来的效率提升。智能体无法在用户的整个数字工作空间中保持连贯的理解。

专有锁定

专有的集成生态系统会产生巨大的转换成本。那些在为某个 AI 提供商构建连接器上投入巨资的组织,在考虑替代方案时会面临巨大障碍。

这种锁定效应减少了竞争和创新。如果采用更新、更强大的模型需要重建整个集成基础设施,公司就无法轻易做到这一点。

Model Context Protocol:一个通用标准

Model Context Protocol 通过一个标准化的开源规范解决了这些挑战。MCP 不是为每个 AI-工具组合构建定制集成,而是建立了一种通用语言,任何 AI 系统都可以用它来与任何兼容的工具通信。

传统方法Model Context Protocol
每个工具定制集成适用于所有工具的标准化协议
一对一连接多对多架构
碎片化的安全性统一的安全模型
供应商锁定模型无关的设计
工具间上下文丢失跨连接的持久上下文

客户端-服务器架构

MCP 使用一个简单的客户端-服务器模型:

MCP 服务器 通过标准化的接口暴露特定的数据源或工具。开发人员只需构建一次 MCP 服务器——例如,连接到 PostgreSQL 数据库或 Jira 项目管理系统——任何与 MCP 兼容的 AI 都可以使用它。

MCP 客户端 是与 MCP 服务器通信的 AI 应用。单个客户端可以同时连接到多个服务器,通过一个统一的接口访问多样化的数据源和工具。

图示 MCP 架构,一个中央 MCP 主机连接到多个 MCP 服务器,每个服务器链接到不同的数据源,如数据库和 API

这种架构将集成格局从 N×M 的定制连接转变为 N+M 的标准化实现。一个为 Salesforce 构建 MCP 服务器的开发人员,使该集成可用于每个与 MCP 兼容的 AI 系统,而不仅仅是某个特定模型。

开源基础

Anthropic 将 MCP 作为开源规范发布,而不是专有技术。完整的协议文档是公开的,任何开发人员或组织都可以实现 MCP 服务器或客户端。

这种开放的方法加速了生态系统的发展。包括 BlockReplitSourcegraph 在内的早期采用者已经构建了 MCP 集成,验证了该协议的实用性。

安全与访问控制

MCP 将安全最佳实践融入其核心设计。该协议定义了标准化的方法用于:

  • 身份验证 – 验证客户端和服务器的身份
  • 授权 – 控制每个客户端可以执行的操作
  • 数据加密 – 保护传输中的信息
  • 审计日志 – 跟踪所有访问和操作

通过标准化这些安全机制,MCP 使组织能够在所有 AI-工具连接中实施一致的保护。安全团队可以审计和监控单个协议,而不是数十个定制集成。

MCP 如何工作:将 AI 连接到工具

实施 MCP 对工具提供商和 AI 应用开发者来说都涉及简单的步骤。

第 1 步:服务器实现

开发人员创建一个 MCP 服务器来暴露特定的工具或数据源。例如,为 Google Drive 构建一个服务器涉及:

  • 实现 MCP 服务器规范
  • 定义可用操作(列出文件、读取内容、创建文档)
  • 处理与 Google API 的身份验证
  • 在 MCP 的标准格式和 Google Drive 的特定 API 之间进行转换

MCP 文档 提供了多种编程语言的参考实现和库,简化了服务器开发。

第 2 步:客户端集成

一个 AI 应用实现 MCP 客户端功能以连接服务器。这涉及:

  • 发现可用的 MCP 服务器
  • 建立安全连接
  • 以 MCP 的标准化格式发送请求
  • 处理响应并将数据集成到 AI 的上下文中

一旦实现,客户端就可以连接到任何与 MCP 兼容的服务器,无需额外的定制开发。

第 3 步:多工具工作流

建立连接后,AI 可以执行跨多个工具的工作流。例如:

  • 用户请求:“总结本周的 GitHub 拉取请求,并将摘要发布到 Slack”
  • AI 连接到 GitHub MCP 服务器,检索 PR 数据
  • AI 处理并总结信息
  • AI 连接到 Slack MCP 服务器,发布摘要

AI 在这个多步骤过程中保持上下文,理解 GitHub 数据和 Slack 消息之间的关系。

第 4 步:上下文持久性

MCP 使 AI 系统能够在工具交互之间保持持久的上下文。当从分析文档切换到安排会议时,AI 会保留对文档内容的理解,并可以在创建会议议程时引用它。

这种上下文持久性消除了传统集成所需的重复解释,创造了更自然、更高效的工作流。

现实世界应用:MCP 实践

Model Context Protocol 在各种用例中实现了实用的 AI 应用。

📊 企业数据分析

场景: 一位金融分析师需要生成一份季度报告,结合来自 Salesforce、内部数据库和市场研究工具的数据。

传统方法: 手动从每个系统导出数据,在电子表格中整合、分析和格式化——需要 4-6 小时的重复性工作。

使用 MCP: 分析师向支持 MCP 的 AI 智能体描述报告要求。该智能体:

  • 连接到 Salesforce MCP 服务器,检索销售数据
  • 通过 MCP 服务器查询内部数据库以获取财务指标
  • 通过连接 MCP 的工具访问市场研究
  • 将数据综合成一份全面的报告
  • 格式化并交付最终文档

时间缩短到 15-20 分钟,分析师专注于战略解读而非数据整理。

💼 软件开发工作流

场景: 一位开发人员需要调查一个生产环境的 bug,找出根本原因,并创建一个修复程序。

传统方法: 手动检查错误日志,搜索代码库,审查最近的提交,创建分支,实施修复,运行测试,提交 PR——需要在多个工具之间切换上下文。

使用 MCP: 开发人员向支持 MCP 的编码助手描述问题。该智能体:

  • 通过 MCP 服务器访问错误监控系统
  • 通过 IDE 的 MCP 集成搜索代码库
  • 通过 GitHub MCP 服务器审查相关提交
  • 结合错误的完整上下文和代码历史提出修复建议
  • 通过连接 MCP 的 CI/CD 创建分支、实施修复、运行测试

开发人员专注于解决问题,而 AI 则处理工具的协调。

📱 个人生产力

场景: 一位专业人士需要在通勤时为明天的会议做准备。

传统方法: 打开日历应用,检查每个会议,在电子邮件中搜索相关线索,审查共享文档,做笔记——在移动设备上很难操作。

使用 MCP: 使用支持 MCP 的移动 AI 助手,用户问道:“为我明天的会议做准备。”

助手:

  • 通过 MCP 服务器检索日历事件
  • 通过 MCP 访问电子邮件以查找相关线索
  • 通过 MCP 从 Google Drive 中提取会议文档
  • 综合简报,包括要点、与会者和行动项目
  • 在通勤期间提供简洁的音频摘要

这种移动优先的工作流展示了 MCP 在不同平台上的多功能性。

🎯 使用 Jenova 的智能体 AI

MCP 的真正潜力通过复杂的智能体客户端得以显现。Jenova 代表了第一个为 MCP 生态系统量身打造的 AI 智能体,展示了该协议的规模化能力。

Jenova 无缝连接到远程 MCP 服务器,使用户无需复杂配置即可访问工具。其多智能体架构支持广泛的工具集成而不会降低性能——这是影响其他通常限制在 10-15 个工具的客户端的一个限制。

作为一个多模型平台,Jenova 与包括 Gemini、Claude 和 GPT 在内的领先 AI 系统合作,确保每项任务的最佳性能。凭借在 iOS 和 Android 上的全面移动支持,Jenova 将由 MCP 驱动的工作流带入日常场景——直接从智能手机管理日历、编辑文档和协调任务。

Jenova 的智能体能力支持复杂的多步骤工作流。用户可以提供一个高层次的目标——“研究竞争对手并创建一份比较文档”——Jenova 会自主规划并执行跨多个连接 MCP 的工具的必要步骤。

常见问题

什么是 Model Context Protocol (MCP)?

Model Context Protocol 是由 Anthropic 开发的一个开源标准,它使 AI 模型能够安全地连接到外部工具和数据源。MCP 使用客户端-服务器架构,其中 AI 应用(客户端)通过一个标准化的协议与工具集成(服务器)通信,从而消除了对定制集成的需求。

MCP 仅适用于 Anthropic 的 Claude 模型吗?

不是。MCP 是模型无关的,可以与任何实现客户端规范的 AI 系统一起工作。虽然 Anthropic 开发了该协议,但它被设计为一个行业标准。使用 GPT、Gemini 或其他模型的 AI 应用可以实现 MCP 客户端功能以连接到 MCP 服务器。

与定制集成相比,MCP 如何提高安全性?

MCP 标准化了包括身份验证、授权、加密和审计日志在内的安全机制。组织可以在所有 MCP 连接中应用一致的安全策略,而不是为每个定制集成单独实施安全性。这种标准化减少了漏洞并简化了安全审计。

我可以将 MCP 与现有的工具和应用一起使用吗?

是的,如果该工具有一个 MCP 服务器。MCP 生态系统正在迅速发展,为 GitHub、Slack、Google Drive 和数据库等流行平台提供了服务器。开发人员还可以使用开源规范为专有或专用工具构建定制的 MCP 服务器。

MCP 和 API 集成有什么区别?

API 是特定于工具的接口,需要为每个 AI-工具组合编写定制的集成代码。MCP 提供了一个标准化的协议,适用于所有兼容的工具。一个与 MCP 兼容的 AI 客户端可以通过同一个协议连接到所有 10 个工具,而无需为 10 个不同的 API 构建单独的集成。

我该如何开始使用 MCP?

对于工具提供商,请访问 MCP 文档 了解如何构建服务器。对于最终用户,寻找支持 MCP 的 AI 应用——像 Jenova 这样的平台提供即用型 MCP 集成。开发人员可以在 MCP 官方网站上探索开源规范和参考实现。

互联 AI 的未来

Anthropic 的 Model Context Protocol 代表了 AI 架构的根本性转变——从孤立的模型到能够在整个数字生态系统中工作的互联智能体。通过为 AI-工具连接建立一个开放、安全的标准,MCP 解决了限制实用 AI 部署的集成挑战。

该协议的开源性质加速了生态系统的发展。随着越来越多的开发人员为流行工具和平台构建 MCP 服务器,网络效应为所有参与者增加了价值。组织可以访问不断增长的预构建集成库,而 AI 应用开发者可以专注于功能而非定制连接器的开发。

对于企业而言,MCP 提供了一条标准化的途径,为 AI 应用解锁内部数据和工具。该协议的安全模型能够在保持对敏感信息控制的同时,实现自信的部署。对于开发人员而言,MCP 极大地降低了集成复杂性,从而能够快速开发复杂的 AI 智能体。

Jenova 这样功能强大的 MCP 客户端的出现,展示了该协议的实际潜力。随着生态系统的成熟,AI 智能体将无缝地在工具和数据源之间导航,执行跨越整个数字工作空间的复杂工作流。这个互联 AI 的未来——智能通过标准化的基础设施与实用性相遇——正是 Anthropic 的 Model Context Protocol 旨在实现的愿景。


来源

  1. Anthropic. (2024). Introducing the Model Context Protocol.
  2. Model Context Protocol. (n.d.). Introduction.
  3. Gartner. (2023). Gartner Says 55% of Organizations Are in Piloting or Production Mode with AI.
  4. IBM Security. (2023). Cost of a Data Breach Report 2023.