前言
在 AIGC 快速发展背景下,模型上下文协议(MCP)应运而生。早期接触 AI 智能体时,曾思考如何直接生成图表或数据,无需手动复制。这背后需要接口协议的标准化支持,如今该功能已逐步实现。
初步了解
Mcp 到底是个啥?
MCP,全称 Model Context Protocol,翻译过来是模型上下文协议。简单来说,它就是与大 AI 模型交互时,一种将相关信息整理好、按规矩传给 AI 的方式。
如果将 AI 智能体比作思考问题的大脑,那么 MCP 就是思考后去执行任务的机制。AI 大模型提供思维结果,而 MCP 负责调用工具完成具体工作,类似于低代码模式。
发展
2024 年 11 月,Anthropic(由 OpenAI 前员工创办)发布并开源 MCP。当时 AIGC 发展迅速但存在痛点,AI 模型与外部数据、工具连接不足,此前方案缺乏通用性。MCP 提供了标准化的交互方式,助力 AI 与外部系统互动。随后获得多家支持,OpenAI 等巨头入局,成为 AI 智能体时代的关键技术。


理论基础
与 RAG(为大模型提供充足上下文)和 Function Calling(让模型能使用工具)密切相关,在它们基础上实现 AI 与外部系统更高效交互。


核心组件

使用逻辑
目前在 Claude、OpenAI GPT、阿里云百炼等平台都有接入 MCP,可以在工具箱中调用工作使用的 MCP 来完成现有工作。但带来的问题是权限过大,需注意安全性。
于传统 API 不同之处
- 传统 API 参数变更时,用户必须更新代码,否则请求可能失败。
- MCP 采用动态灵活方式,客户端连接服务器时会先了解其能力,服务器也会动态更新功能描述,客户端无需重写代码就能适应变化,大幅降低维护成本。
模型推荐
打开我们的大模型,选择工具,可以看到有很多官方或个人开发的 MCP 工具,我们可以点击使用。
提出要求,它会给你充分的回答。为了更便捷地获取成品,部分平台提供了成熟的 MCP 堆叠 Agent 功能。


