Model Context Protocol (MCP) 详解
前言
去年刚接触 AI 智能体时,我就在想如何让模型直接操作工具,而不是只生成文本。当时觉得只要做个接口协议就行,没想到年底这个功能就实现了。在某种程度上,这也算是预言了。
初步了解
MCP 到底是个啥?
MCP,全称 Model Context Protocol,翻译过来是模型上下文协议。简单说,它就是和大 AI 模型聊天时,一种把相关信息整理好、按规矩传给 AI 的方式。
之前我们使用的 AI 智能体如果比作是个思考问题的大脑,那么 MCP 就是思考后,给你去干活的。AI 大模型负责思维结果,而 MCP 负责调用工具把工作做好。这其实就是低代码的一种体现。
发展
2024 年 11 月,Anthropic(由 OpenAI 前员工创办)发布并开源了 MCP。当时 AIGC 发展快但存在痛点,AI 模型与外部数据、工具连接不足,此前方案缺乏通用性。MCP 提供了标准化的交互方式,帮助 AI 与外部系统互动。随后获得了多家支持,OpenAI 等巨头入局,使其成为 AI 智能体时代的关键技术。


理论基础
MCP 与 RAG(为大模型提供充足上下文)和 Function Calling(让模型能使用工具)密切相关,是在它们基础上实现 AI 与外部系统更高效交互的演进。


核心组件

使用逻辑
目前在 Claude、OpenAI GPT、阿里云百炼等主流平台都有接入 MCP,可以在工具箱中调用工作使用的 MCP 来完成现有任务。不过带来的问题是权限过大,需要注意安全性。
与传统 API 不同之处
- 传统 API:参数变更时,用户必须更新代码,否则请求可能失败。
- MCP:采用动态灵活方式,客户端连接服务器时会先了解其能力,服务器也会动态更新功能描述,客户端无需重写代码就能适应变化,大幅降低维护成本。












