1. 什么是 MCP?
官网提供了详细的介绍文档。2025 年,Anthropic 提出了 MCP 协议,全称为 Model Context Protocol,即大模型上下文协议。它的核心目标是为 AI 大模型和外部工具之间的交互提供一个统一的处理标准。
这就好比 USB Type-C 接口统一了各种设备的连接方式,MCP 协议试图统一大模型与工具的对接方式。无论是让 AI 查询信息,还是操作本地文件,MCP 都提供了一套标准化的接口。
MCP 采用 C/S 架构,支持客户端调用远程 Server 提供的服务,同时也支持 stdio 流式传输模式,允许在客户端本地启动 MCP 服务端。只需在配置文件中新增 MCP 服务端,就能利用服务器提供的各种工具,大大提升了大模型调用外部能力的便捷性。
该协议是开源的,旨在让所有 AI 厂商和工具都能集成到自己的客户端中。只有用户基数足够大,协议才能不断演进优化。
2. 回顾 Function Call
在 MCP 普及之前,开发 AI Agent 调用外部工具时,往往需要针对不同的模型 SDK 编写适配代码。最典型的便是 OpenAI 提供的 Function Call 处理逻辑。
2.1. Function Call 实战
2.1.1. 配置工具与参数
调用 Chat Completions 接口时,通过 tools 参数传入外部工具定义。这包含了工具的描述、所需参数及其释义。其中 tool_choice 字段设为 auto 代表由大模型自动选择是否调用工具,设为 none 则强制不调用。
请求体大致如下:
{
"tool_choice": "auto",
"messages": [
{ "role": "system", "content": "你是一个天气查询助手" },
{ "role": "user", "content": "帮我查询上海的天气" }
],
"tools": [
{
"type": "function"


