跳到主要内容
极客日志极客日志
首页博客AI提示词GitHub精选代理工具
搜索
|注册
博客列表

目录

  1. 1. 什么是 MCP?
  2. 2. 了解 function call
  3. 2.1. function call demo
  4. 2.1.1. 配置工具,AI 提供参数
  5. 2.1.2. 调用工具并让 AI 二次处理
PythonAI

MCP 协议详解:与 Function Call 区别及使用方法

MCP(Model Context Protocol)是大模型上下文协议,旨在统一 AI 大模型与外部工具的交互方式。相较于 Function Call 需针对不同模型定制开发,MCP 采用 C/S 架构支持远程或本地服务调用。本文通过 Python SDK 示例解析了 Function Call 的工作流程,涵盖工具配置、参数传递及上下文维护机制。

落日余晖发布于 2026/2/80 浏览
MCP 协议详解:与 Function Call 区别及使用方法

1. 什么是 MCP?

官网:https://modelcontextprotocol.io/introduction

2025 年,Anthropic 提出了 MCP 协议。MCP 全称为 Model Context Protocol,翻译过来是大模型上下文协议。这个协议的主要为 AI 大模型和外部工具(比如让 AI 去查询信息,或者让 AI 操作本地文件)之间的交互提供了一个统一的处理协议。我们常用的 USB TypeC 接口(USB-C)统一了 USB 接口的样式,MCP 协议就好比 AI 大模型中的 USB-C,统一了大模型与工具的对接方式。

MCP 协议采用了 C/S 架构,也就是服务端、客户端架构,能支持在客户端设备上调用远程 Server 提供的服务,同时也支持 stdio 流式传输模式,也就是在客户端本地启动 mcp 服务端。只需要在配置文件中新增 MCP 服务端,就能用上这个 MCP 服务器提供的各种工具,大大提高了大模型使用外部工具的便捷性。

MCP 是开源协议,能让所有 AI 厂商、AI 工具都将 MCP 集成到自己的客户端中,从而扩大 MCP 的可用面。毕竟只有用的人越多,协议才能不断发展,不断变得更好。

2. 了解 function call

在 MCP 没有出来之前,我们的 AI Agent 开发如果想调用外部工具需要针对不同的 AI 大模型 SDK 编写不同的代码,其中最为常用的是 openai 提供的 function call 的处理逻辑。

2.1. function call demo
2.1.1. 配置工具,AI 提供参数

当我们调用 OpenAI Chat Completions 接口时,可以通过 tools 参数传入可供使用的外部工具。这个工具的调用中就包含了工具的作用,工具需要传入的参数,以及参数的释义。其中 tool_choice 字段设置为 auto 代表让大模型自动选择 tools,设置为 none 时不会调用外部工具。

{
  "tool_choice": "auto",
  "messages": [
    {
      "role": "system",
      "content": "你是一个天气查询助手"
    },
    {
      "role": "user",
      "content": "帮我查询上海的天气"
    }
  ],
  "tools" 
    
       
       
         
         
         
           
           
             
               
               
            
          
           
        
      
    
  

极客日志微信公众号二维码

微信扫一扫,关注极客日志

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog

更多推荐文章

查看全部
  • 基于 FastAPI 自动构建 SSE MCP 服务器
  • MCP Server 实现 Excel 表格一键生成可视化图表 HTML 报告
  • 基于 Higress 将 REST API 转换为 MCP Server 工具配置指南
  • MCP 工具速成:npx 与 uvx 全流程安装指南
  • Dify 与 MySQL 深度融合:基于 MCP 协议的数据交互实践
  • 在 Cursor 中配置并使用 MCP 服务指南
  • 命令行工具 MCPHost 实现大模型与外部工具交互

相关免费在线工具

  • RSA密钥对生成器

    生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online

  • Mermaid 预览与可视化编辑

    基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online

  • curl 转代码

    解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online

  • Base64 字符串编码/解码

    将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online

  • Base64 文件转换器

    将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online

  • Markdown转HTML

    将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML转Markdown 互为补充。 在线工具,Markdown转HTML在线工具,online

:
[
{
"type"
:
"function"
,
"function"
:
{
"name"
:
"get_weather"
,
"description"
:
"获取指定城市的天气"
,
"parameters"
:
{
"type"
:
"object"
,
"properties"
:
{
"city"
:
{
"type"
:
"string"
,
"description"
:
"城市名"
}
}
,
"required"
:
[
"city"
]
}
}
}
]
}

对应的 python openai 代码如下,我们将 tools 部分放入一个包含 dict 的 list,作为 create 函数的 tools 参数即可。同时 tool_choice 传入 auto 代表自动选择工具。这里我用了硅基流动提供的 Qwen2.5 模型作为演示,运行下面这个代码需要修改 api_key 为正确值。

import openai  # 1.75.0
import json

def main():
    client = openai.OpenAI(
        api_key="xxxxx",
        base_url="https://api.siliconflow.cn/v1"
    )
    tools = [{
        "type": "function",
        "function": {
            "name": "get_weather",
            "description": "获取指定城市的天气",
            "parameters": {
                "type": "object",
                "properties": {
                    "city": {
                        "type": "string",
                        "description": "城市名"
                    }
                },
                "required": ["city"]
            }
        }
    }]
    res = client.chat.completions.create(
        model="Qwen/Qwen2.5-32B-Instruct",
        messages=[{
            "role": "system",
            "content": "你是一个天气查询助手"
        }, {
            "role": "user",
            "content": "帮我查询上海的天气"
        }],
        tools=tools,
        tool_choice="auto"
    )
    print("content:", res.choices[0].message.content)
    print("tools:", res.choices[0].message.tool_calls)
    print("message:", res.choices[0].message.to_dict())

if __name__ == "__main__":
    main()

运行程序,发出请求后,大模型就会根据用户提出的问题和提供的 tools,来为这个 tools 编写需要提供的参数。此时 content 会是空,不会输出内容,tool_calls 中会包含调用的工具和参数。

❯ uv run main.py
content: 
tools: [ChatCompletionMessageToolCall(id='01964be6e485603d6a2a0acbbc7eba91', function=Function(arguments='{"city": "上海"}', name='get_weather'), type='function')]
message: {'content': '', 'role': 'assistant', 'tool_calls': [{'id': '01964be6e485603d6a2a0acbbc7eba91', 'function': {'arguments': '{"city": "上海"}', 'name': 'get_weather'}, 'type': 'function'}]}

对应如下 json 格式响应,包含了我们的参数

{
  "role": "assistant",
  "content": "",
  "tool_calls": [
    {
      "id": "01964be6e485603d6a2a0acbbc7eba91",
      "type": "function",
      "function": {
        "name": "get_weather",
        "arguments": "{\n \"city\": \"上海\"\n}"
      }
    }
  ]
}
2.1.2. 调用工具并让 AI 二次处理

随后,我们就可以根据这个大模型返回的参数来调用我们的函数,并得到函数的返回结果,再次与大模型进行对话。此时需要按下面的方式维护对话上下文,首先需要将第一次请求 AI 返回的结果插入到上下文中("role": "assistant"的 json 字符串),然后再插入工具调用的数据,格式如下:

{
  "role": "tool",
  "tool_call_id": "01964be6e485603d6a2a0acbbc7eba91",
  "content": "上海天气晴朗,气温 25 度"
}

将上述消息追加到 messages 列表中,再次发送给大模型,大模型会根据工具返回的内容生成最终的回答给用户。通过这种方式,实现了 AI 与外部工具的闭环交互。

实战篇:Python 开发 MongoDB 数据库 MCP Server
  • 基于 Claude MCP 协议的智能体落地示例
  • AI Agent 新范式:FastGPT+MCP 协议实现工具增强型智能体构建
  • 基于腾讯云 HAI 与 DeepSeek 快速构建个人网页
  • Windows 本地运行 DeepSeek 开源模型的三个步骤
  • VSCode 本地运行 DeepSeek 模型指南
  • 基于 DeepSeek 的贪吃蛇游戏开发实战
  • DeepFace 结合 OpenCV 实现实时情绪分析
  • ToDesk 顺网云海马云部署 DeepSeek 大模型对比评测
  • Java 核心面试题与答案解析
  • Docker 与 Ollama 本地部署 DeepSeek 大模型实战
  • DeepSeek 隐藏玩法与高阶提示词使用指南
  • DeepSeek 结合通义万相制作 AI 视频实战指南