本文介绍了模型上下文协议(Model Context Protocol, MCP),这是一个旨在连接 AI 助手与数据源(如内容仓库、业务工具和开发环境)的新标准。MCP 的目标是帮助前沿模型生成更优质、更相关的响应。当前,尽管 AI 模型的能力迅速提升,但它们与数据的隔离是一个主要瓶颈。每个新的数据源都需要定制化的集成方案,使得构建真正互联互通的系统变得困难。MCP 通过提供一个通用的、开放的标准来解决这个问题,用单一协议取代碎片化的集成方式,从而更简单、更可靠地让 AI 系统访问所需的数据。
模型上下文协议(MCP)是一个开放标准,允许开发者在数据源和 AI 驱动的工具之间建立安全的双向连接。其架构包括:开发者可以通过 MCP 服务器暴露数据,或者构建连接到这些服务器的 AI 应用(MCP 客户端)。
今天发布了 MCP 的三个主要组件:
- 模型上下文协议规范和 SDK:为开发者提供构建 MCP 连接器的工具和指南。
- Claude Desktop 应用中的本地 MCP 服务器支持:允许用户在本地环境中测试和使用 MCP 服务器。
- MCP 服务器的开源仓库:提供预构建的 MCP 服务器,方便快速集成常见企业系统,如 Google Drive、Slack、GitHub、Git、Postgres 和 Puppeteer。
Claude 3.5 Sonnet 模型能够快速构建 MCP 服务器的实现,降低了组织和个人将重要数据集与 AI 工具连接的难度。Block 和 Apollo 等早期采用者已经将 MCP 集成到其系统中。Zed、Replit、Codeium 和 Sourcegraph 等开发工具公司也在利用 MCP 增强其平台,使 AI 代理能够更好地检索相关信息,理解代码任务的上下文,并生成更精确、更实用的代码。
MCP 的优势在于,开发者不再需要为每个数据源维护单独的连接器,而是可以基于统一的标准协议进行开发。随着生态系统的成熟,AI 系统在不同工具和数据集之间移动时能够保持上下文,从而构建更可持续的架构。
开发者可以立即开始构建和测试 MCP 连接器。所有 Claude.ai 计划都支持将 MCP 服务器连接到 Claude Desktop 应用。Claude for Work 客户可以开始在本地测试 MCP 服务器,将 Claude 连接到内部系统和数据集。未来还将提供用于部署远程生产 MCP 服务器的开发者工具包。
MCP 致力于成为一个协作的开源项目和生态系统,并鼓励开发者积极参与,共同构建上下文感知 AI 的未来。
原文
今天,我们开源了 模型上下文协议 (Model Context Protocol,MCP),这是一个全新的标准,旨在将 AI 助手连接到数据所在的系统,包括内容存储库、业务工具和开发环境。 其目的是帮助先进模型产生更好、更相关的响应。
随着 AI 助手被广泛采用,业界在模型能力方面投入了大量资金,在推理和质量方面取得了快速进展。 然而,即使是最复杂的模型也受到数据隔离的限制——被困在信息孤岛和遗留系统里。 每个新的数据源都需要定制化的实现,这使得真正连接的系统难以扩展。
MCP 解决了这一挑战。 它提供了一个通用的、开放的标准,用于连接 AI 系统与数据源,通过统一的协议替代以往分散的集成方式。 这带来了一种更简单、更可靠的方式,让 AI 系统访问它们所需的数据。
模型上下文协议
模型上下文协议是一个开放标准,使开发者能够在数据源和人工智能驱动的工具之间建立安全的双向连接。该架构非常简单:开发者可以通过 MCP 服务器公开他们的数据,或者构建连接到这些服务器的 AI 应用程序 (MCP 客户端)。
今天,我们为开发者介绍模型上下文协议的三个主要组成部分:
- 模型上下文协议的 规范文档和软件开发工具包 (SDK)
Claude
桌面应用 中的本地 MCP 服务器支持- MCP 服务器的 开源存储库
Claude
3.5 Sonnet 模型能够快速构建 MCP 服务器的实现,使组织和个人能够快速将其最重要的数据集与各种 AI 驱动的工具连接起来。 为了帮助开发者开始探索,我们正在分享针对流行的企业系统(如 Google Drive、Slack、GitHub、Git、Postgres、Puppeteer)的预构建 MCP 服务器。
Block 和 Apollo 等早期采用者已将 MCP 集成到他们的系统中,而包括 Zed、Replit、Codeium 和 Sourcegraph 在内的开发工具公司正在与 MCP 合作以增强他们的平台——使 AI 助手能够更好地检索相关信息,以进一步理解围绕编码任务的上下文,并以更少的尝试生成更细致和功能更强大的代码。
“在 Block,开源不仅仅是一种开发模式——它是我们工作的基础,也是对创建能够推动有意义的变革并为所有人提供公共利益的技术的承诺,”Block 首席技术官 Dhanji R. Prasanna 说。“像模型上下文协议这样的开放技术是将 AI 连接到现实世界应用程序的桥梁,确保创新是可访问的、透明的并且植根于协作。我们很高兴能合作开发一个协议,并用它来构建智能体系统,从而消除机械的负担,让人可以专注于创造。”
现在,开发者可以针对标准协议进行构建,而不是为每个数据源维护单独的连接器。 随着生态系统的成熟,AI 系统将在不同的工具和数据集之间移动时保持上下文,用更可持续的架构取代目前这种分散的集成方式。
快速开始
开发者可以立即开始构建和测试 MCP 连接器。 所有 Claude.ai
计划都支持将 MCP 服务器连接到 Claude
桌面应用。
Claude for Work
客户可以开始在本地测试 MCP 服务器,将 Claude
连接到内部系统和数据集。 我们很快将提供开发者工具包,用于部署远程生产 MCP 服务器,这些服务器可以为您的整个 Claude for Work
组织提供服务。
要开始构建:
- 通过
Claude
桌面应用安装预构建的 MCP 服务器 - 按照我们的 快速入门指南构建您的第一个 MCP 服务器
- 贡献到我们的 连接器和实现的开源存储库
一个开放的社区
我们致力于将 MCP 构建为一个协作的、开源的项目和生态系统,并且渴望听到您的反馈。 无论您是 AI 工具开发者、希望利用现有数据的企业,还是探索前沿的早期采用者,我们都邀请您共同构建具备上下文感知能力的人工智能的未来。