Model Context Protocol (MCP) 是一个开放协议,用于实现 LLM 应用程序与外部数据源和工具之间的无缝集成。无论是构建 AI 驱动的 IDE、增强聊天界面,还是创建自定义 AI 工作流,MCP 提供了一种标准化的方式来将 LLM 与它们所需的上下文连接起来。

此规范基于 schema.ts 中的 TypeScript 模式定义了权威的协议要求。

有关实施指南和示例,请访问 modelcontextprotocol.io

文档中使用的“必须”(MUST)、“不得”(MUST NOT)、“要求”(REQUIRED)、“应”(SHALL)、“不应”(SHALL NOT)、“应该”(SHOULD)、“不应该”(SHOULD NOT)、“推荐”(RECOMMENDED)、“不推荐”(NOT RECOMMENDED)、“可以”(MAY)和“可选”(OPTIONAL)这些关键词,应根据 BCP 14 [RFC2119] [RFC8174] 的描述进行解释,只有在这些关键词全部大写时才适用。

概述

MCP 为应用程序提供了一种标准化的方式来:

  • 与语言模型共享上下文信息
  • 向 AI 系统公开工具和功能
  • 构建可组合的集成和工作流

该协议使用 JSON-RPC 2.0 消息来建立以下之间的通信:

  • 主机:发起连接的 LLM 应用程序
  • 客户端:主机应用程序中的连接器
  • 服务器:提供上下文和功能的服务

MCP 从 语言服务器协议 中汲取了一些灵感,该协议标准化了如何在整个开发工具生态系统中为编程语言添加支持。类似地,MCP 标准化了如何将额外的上下文和工具集成到 AI 应用程序的生态系统中。

关键细节

基本协议

  • JSON-RPC 消息格式
  • 有状态连接
  • 服务器与客户端的能力协商

功能

服务器向客户端提供以下功能:

  • 资源:用户或 AI 模型可使用的上下文和数据
  • 提示:用户的模板化消息和工作流
  • 工具:AI 模型可以执行的功能

客户端可以向服务器提供以下功能:

  • 采样:服务器发起的代理行为和递归 LLM 交互

附加实用工具

  • 配置
  • 进度跟踪
  • 取消
  • 错误报告
  • 日志记录

安全与信任与安全

模型上下文协议通过任意数据访问和代码执行路径启用了强大的功能。伴随这一功能,所有实现者必须仔细考虑安全性和信任问题。

关键原则

  1. 用户同意与控制

    • 用户必须明确同意并理解所有的数据访问和操作
    • 用户必须对共享哪些数据和采取哪些操作保有控制权
    • 实现者应提供清晰的用户界面供用户审查和授权活动
  2. 数据隐私

    • 主机必须在将用户数据暴露给服务器之前获得明确的用户同意
    • 主机不得在未经用户同意的情况下将资源数据传输到其他地方
    • 用户数据应受到适当的访问控制保护
  3. 工具安全

    • 工具代表任意的代码执行,必须谨慎对待
    • 主机必须在调用任何工具之前获得用户的明确同意
    • 用户应了解每个工具的作用后再授权使用
  4. LLM 采样控制

    • 用户必须明确批准任何 LLM 采样请求
    • 用户应控制:
      • 是否进行采样
      • 实际发送的提示
      • 服务器可以看到的结果
    • 协议故意限制了服务器对提示的可见性

实施指南

虽然 MCP 本身无法在协议层面强制执行这些安全原则,但实现者 应该

  1. 在其应用程序中构建强健的同意和授权流程
  2. 提供清晰的安全影响文档
  3. 实施适当的访问控制和数据保护
  4. 在集成中遵循安全最佳实践
  5. 在功能设计中考虑隐私问题