应用MCP(Model Context Protocol)以来,一直对其中的”Context:上下文”抱有疑问。
🧐MCP作为大模型调用外部工具的标准化协议,和大模型本身的上下文能有什么关系?
“上下文”是什么
我们知道,大模型高度依赖历史对话、环境信息、用户偏好……那么这些因素其实都是“上下文”。
传统的大模型与外部工具/数据源的集成存在显著痛点:
- 每个模型与每个工具/数据源需要单独做适配
- 工具返回的数据无法被模型自然整合
- 安全问题
MCP的“使命”
而MCP的使命正是让不同来源、格式的上下文能被标准化地提取、传输和注入大模型的推理过程中,避免了其上下文断裂或重复开发的适配成本消耗。
MCP通信机制可以理解简单为:
- Client与Server间使用JSON-RPC 2.0进行消息传输
- MCP服务器返回的上下文额外附带元信息
- 协议握手
👇
简而言之,MCP 不是简单的工具调用接口,而是模型与现实世界之间的上下文桥梁—— 它让工具调用成为上下文获取的手段,而非目的本身。通过标准化上下文交互,它消除了重复开发的负担,提升了模型的决策能力,并为大模型从 “对话机器人” 进化为能处理真实任务的智能代理奠定了基础。
MCP 之所以叫 “模型上下文协议”,是因为它将大模型所需的一切背景信息、知识和工具能力统称为上下文,并通过标准化的接口协议解决如何高效、安全、智能地将这些上下文传递给模型,使其在现实场景中真正 “知情达意”,而不仅仅是触发工具执行指令。这种设计让模型真正具备了结合外部世界动态信息进行推理和行动的能力,是其成为 AI 生态基础设施的关键所在。
