什么是 MCP?
官网:https://modelcontextprotocol.io/introduction
Anthropic 近期推出了 MCP(Model Context Protocol,大模型上下文协议)。这个协议的核心是为 AI 大模型和外部工具之间的交互提供了一个统一的处理标准。你可以把它想象成 AI 领域的 USB-C 接口——以前各种设备接口不统一,现在通过 MCP,大模型调用查询信息、操作本地文件等外部工具的对接方式被标准化了。
MCP 采用 C/S 架构,即服务端与客户端模式。它既支持在客户端设备上调用远程 Server 提供的服务,也支持 stdio 流式传输模式,这意味着你可以在本地启动 MCP 服务端。只需在配置文件中新增 MCP 服务端,就能直接利用其提供的各类工具,极大提升了大模型集成外部能力的便捷性。

作为开源协议,MCP 鼓励所有 AI 厂商和工具将其集成到客户端中。生态越丰富,协议的生命力就越强,这也是推动 AI 应用标准化的关键一步。
了解 Function Call
在 MCP 普及之前,AI Agent 开发若要调用外部工具,往往需要针对不同的大模型 SDK 编写适配代码。其中最为经典且广泛使用的便是 OpenAI 提供的 Function Call 机制。
Function Call 实战演示
配置工具,让 AI 提供参数
调用 Chat Completions 接口时,可以通过 tools 参数传入可供使用的外部工具定义。这其中包括工具的作用描述、所需参数及其释义。tool_choice 字段控制模型的决策行为:设置为 auto 代表让大模型自动选择是否调用工具,设置为 none 则禁止调用外部工具。
{
"tool_choice": "auto",
"messages": [
{
"role": "system",
"content": "你是一个天气查询助手"
},
{
"role": "user",
"content":


