【科普】大模型中常说的 MCP 是指什么?
大型语言模型(LLMs)的飞速发展,极大地拓展了人工智能的应用领域,它们在文本生成、语言理解、代码编写等多个方面展现出强大的能力。然而,这些模型的一个固有局限在于,它们的能力很大程度上受限于其训练数据的范围。这意味着,LLMs 往往缺乏对实时信息的感知(联网搜索),也无法直接与外部世界进行交互以执行具体的操作。 为了弥补这一不足,传统的做法是为每一个需要连接的数据源(如数据库、API、文件系统)和工具构建定制化的集成方案。然而,随着 AI 模型和外部工具数量的不断增长,这种方法很快变得难以维护和扩展,导致了一个被称为“MxN 问题”的局面——即 M 个 AI 模型需要与 N 个外部工具进行连接,所需的集成数量是 M 乘以 N。 这种“MxN 问题”暴露了当前 AI 生态系统在数据连接方面的瓶颈。每当出现一个新的 LLM 或一个新的外部工具,就需要进行大量的重复开发工作来建立它们之间的通信桥梁。这种复杂性不仅拖慢了 AI 应用的开发速度,也增加了维护成本,并限制了不同 AI 模型和工具之间的互操作性。 为了应对这些挑战,Anthropic 在 2024 年 11 月推出了模型上下文协议(Model Context Protocol,简称 MCP)。MCP 旨在成为一个开放的标准,用于规范 AI 助手如何连接到存储数据的各种系统,包括内容仓库、业务工具和开发环境。 MCP 协议刚推出时并没有引起什么反响,直到今年 3 月份,MCP 协议开始火起来,并被越来越多的公司所支持,如Cursor、Github、Google、Cloudflare 等等,就连 OpenAI 在前几天也宣布要支持 MCP 协议(另外,Anthropic 也偷偷兼容了 OpenAI SDK,可能他们做了对等的交易?)。国内这边,很多公司也在跟进和支持 MCP 协议,如百度地图、高德地图等等。 什么是模型上下文协议 (MCP)? 模型上下文协议(MCP)是一个开放协议,它定义了一种标准化的方式,使得应用程序能够为大型语言模型(LLMs)提供上下文信息。其核心目标是实现 AI 模型与外部工具、数据库和 API 之间的无缝且标准化的集成。 可以将 MCP 视为 AI 领域的“USB-C 接口”。正如 USB-C 为各种设备连接到计算机提供了通用的接口一样,MCP 为 AI 模型与各种外部资源进行交互提供了一个标准化的方法。它充当了一个“通用连接器”或“通用适配器”,使得 LLMs 能够动态地与外部资源进行交互,从而获取实时的、准确的、相关的信息,并利用外部工具执行任务。...