规范(最新版)2024-11-05
协议版本: 2024-11-05
模型上下文协议(Model Context Protocol,MCP)是一个开放协议,它使 LLM 应用程序能够与外部数据源和工具无缝集成。无论您是在构建 AI 驱动的 IDE、增强聊天界面,还是创建自定义 AI 工作流,MCP 都为 LLM 提供了一种标准化的方式来获取所需的上下文。
本规范基于 schema.ts 中的 TypeScript 模式,定义了权威的协议要求。
有关实现指南和示例,请访问 modelcontextprotocol.io。 本文档中的关键词 "MUST"(必须)、"MUST NOT"(禁止)、"REQUIRED"(必需)、"SHALL"(应当)、 "SHALL NOT"(不应)、"SHOULD"(应该)、"SHOULD NOT"(不该)、"RECOMMENDED"(推荐)、 "NOT RECOMMENDED"(不推荐)、"MAY"(可以)和 "OPTIONAL"(可选)应按照 BCP 14 [RFC2119] [RFC8174] 中的描述进行解释, 且仅当这些词以全大写形式出现时才适用此解释规则。
概述
MCP 为应用程序提供了一种标准化的方式来:
- 与语言模型共享上下文信息
- 向 AI 系统开放工具和功能
- 构建可组合的集成和工作流
该协议使用 JSON-RPC 2.0 消息在以下组件之间建立通信:
- 宿主:发起连接的 LLM 应用程序
- 客户端:宿主应用程序内的连接器
- 服务器:提供上下文和功能的服务
MCP 的灵感部分来源于 语言服务器协议, 后者标准化了在整个开发工具生态系统中添加编程语言支持的方式。类似地, MCP 标准化了如何将额外的上下文和工具集成到 AI 应用程序生态系统中。
关键细节
基础协议
- JSON-RPC 消息格式
- 有状态连接
- 服务器和客户端能力协商
功能特性
服务器向客户端提供以下功能:
- 资源:供用户或 AI 模型使用的上下文和数据
- 提示:面向用户的模板化消息和工作流
- 工具:供 AI 模型执行的函数
客户端可以向服务器提供以下功能:
- 采样:服务器发起的代理行为和递归 LLM 交互
其他工具
- 配置
- 进度跟踪
- 取消
- 错误报告
- 日志记录
安全性和信任与安全
模型上下文协议通过任意数据访问和代码执行路径启用强大的功能。这种能力带来了重要的安全性和信任考虑,所有实现者都必须认真对待。
关键原则
-
用户同意和控制
- 用户必须明确同意并理解所有数据访问和操作
- 用户必须保持对共享数据和执行操作的控制权
- 实现者应提供清晰的用户界面用于审查和授权活动
-
数据隐私
- 主机在向服务器暴露用户数据之前必须获得用户明确同意
- 未经用户同意,主机不得将资源数据传输到其他地方
- 用户数据应通过适当的访问控制进行保护
-
工具安全
- 工具代表任意代码执行,必须谨慎对待
- 主机在调用任何工具之前必须获得用户明确同意
- 用户在授权使用之前应理解每个工具的功能
-
LLM 采样控制
- 用户必须明确批准任何 LLM 采样请求
- 用户应控制:
- 是否进行采样
- 将发送的实际提示
- 服务器可以看到哪些结果
- 该协议有意限制服务器对提示的可见性
实现指南
虽然 MCP 本身无法在协议层面强制执行这些安全原则,但实现者应该:
- 在其应用程序中构建健壮的同意和授权流程
- 提供清晰的安全影响文档
- 实施适当的访问控制和数据保护
- 在集成中遵循安全最佳实践
- 在功能设计中考虑隐私影响
了解更多
探索每个协议组件的详细规范: