AI 进化论:从 Function Calling 到 MCP

AI 进化论:从 Function Calling 到 MCP

AI 进化论:从 Function Calling 到 MCP,你的大模型还在“裸奔”吗?

在这里插入图片描述

文章目录

一、 给 AI 装上手脚:Function Calling 到底是个啥?

1. 专业解释与大白话解读

专业解释:Function Calling(函数调用) 是模型厂商(如 OpenAI、阿里云 Qwen)提供的私有接口功能。它允许开发者预定义一组工具(函数),当模型判断用户意图需要调用外部数据或执行特定操作时,它会输出符合函数签名的 ​**结构化参数(JSON)**​,由后端执行后再将结果反馈给模型生成最终回复。

大白话解读: 想象你雇了一个很有才华但没手没脚的“军师”(大模型)。如果你问他“今天外面几度?”,他只能瞎编。但如果你递给他一个温度计(Function),告诉他怎么读数,他就能先看温度计,再告诉你:“主公,外面 35 度,建议宅着。”

生活案例: 这就像点外卖。你(用户)对大模型说“我饿了”。大模型(外卖员)不会自己做饭,但他知道调用“美团下单”这个函数,填好“红烧肉”和“你的地址”,最后把热腾腾的饭菜送到你手里。

2. 核心功能与代码示例

在 Qwen-Agent 等框架中,Function Calling 可以实现实时数据获取、复杂数学计算和外部系统操作。

# 示例:一个简单的天气查询函数注册from qwen_agent.tools.base import BaseTool, register_tool @register_tool('get_weather')classWeatherTool(BaseTool): description ='获取指定城市的实时天气' parameters =[{'name':'city','type':'string','description':'城市名称,如:北京','required':True}]defcall(self, params:str,**kwargs)->str:# 这里模拟调用 APIimport json args = json.loads(params) city = args['city']returnf"{city}今天晴转多云,25度,适合摸鱼。"

二、 实战演练:搭建你的“门票数据助手”

1. 业务场景介绍

我们需要搭建一个能查询门票销量的助手。它基于 tkt_orders 数据表,包含订单时间、用户 ID、省份、订单金额等字段。

在这里插入图片描述

2. 进阶:一次调用,搞定查询 + 可视化

传统模式下,查数据和画图是分开的。但在进阶版 exc_sql 工具中,我们实现了 自动推断图表字段 并直接返回 Markdown 表格和图片。

核心逻辑实现:

  • SQL 查询: 执行 SQL 获取结果集 df
  • 自动绘图: 优先选字符串列做 X 轴,数值列做 Y 轴。
  • 样式设置: 自动处理标签倾斜 45 度,防止文字重叠。
# 自动推断并绘图的逻辑片段 x_candidates = df.select_dtypes(include=['object']).columns.tolist() x = x_candidates if x_candidates else df.columns y_fields = df.select_dtypes(include=['number']).columns.tolist()import matplotlib.pyplot as plt plt.figure(figsize=(8,5))for col in y_fields: plt.bar(df[x].astype(str), df[col], label=col) plt.xticks(rotation=45) plt.savefig('chart.png')

三、 MCP:AI 界的“USB-C”接口协议来了!

1. 什么是 MCP?

专业解释:Model Context Protocol (MCP) 是 Anthropic 推出的开放协议标准。它旨在标准化 LLM 与外部数据源、工具之间的交互方式,实现“一次开发,多模型兼容”。

大白话解读: 以前每个厂商的 AI 接口都不一样,像极了那个满地找充电线的年代(iPhone 是 Lightning,安卓是 Micro-USB)。​MCP 就是 AI 界的 USB-C​,管你是 Claude、GPT 还是 Qwen,只要插上这个“标准插口”,工具就能通通用起来!

2. MCP 核心架构

  • MCP Host: 运行 AI 的环境(如 Cursor, Claude Desktop)。
  • MCP Client: 负责发起请求的“翻译官”。
  • MCP Server: 提供具体功能的“工具库”。

AI模型/Host

MCP Client

MCP Server

高德地图API

本地数据库

GitHub/Slack


四、 玩转 MCP:从旅游攻略到桌面统计

1. CASE:高德地图旅游助手

通过配置 amap-maps-mcp-server,AI 可以自主调用关键词搜索、路径规划、天气查询等功能,直接为你生成一份详尽的大连一日游攻略,甚至帮你写好 HTML 网页呈现。

在这里插入图片描述

2. CASE:桌面 TXT 统计器(MCP SDK 实战)

使用 Python 的 FastMCP 框架,几行代码就能让 AI 拥有“查看你桌面文件”的超能力。

from pathlib import Path from mcp.server.fastmcp import FastMCP mcp = FastMCP("桌面统计器")@mcp.tool()defcount_desktop_txt_files()->int:"""统计桌面上 .txt 文件的数量""" desktop_path = Path("~/Desktop").expanduser()returnlen(list(desktop_path.glob("*.txt")))if __name__ =="__main__": mcp.run()

五、 脑洞大开:未来 3 大拓展方案

在原有功能的基础上,我们可以进一步把 AI 的“触角”伸向更远的地方:

  1. 智能家居“边缘大脑”:
    • 方案: 利用 MCP 协议连接本地 Home Assistant 服务器。
    • 价值: 告别云端延时。即便断网,你也能对 AI 说:“看我眼神行事,把卧室灯调成猛男粉。”
  2. AI 投资情报局:
    • 方案: 集成 Tavily 搜索 MCP + 实时股价 Function Calling。
    • 价值: AI 自动抓取半导体行业新闻,结合你本地的持仓数据,自动画出盈亏分析图并给出“割肉”建议。
  3. 自动化“代码裁缝”:
    • 方案: 开发一个具备文件修改权限的 MCP Server,接入 IDE。
    • 价值: 发现 Bug 后,AI 不仅仅是“建议”,它能直接“上手”改代码,测通后顺便帮你把 Jira 单子也关了。

六、 总结与互动引导

从私有的 Function Calling 到开放的 ​MCP​,AI 正在从“只会聊天的复读机”进化为“能干活的打工人”。底层能力的进化,意味着开发门槛的进一步降低。

在这里插入图片描述
看到这里的都是真爱!既然 AI 都能帮我统计桌面 TXT 了,你觉得它还有什么“离谱”的用途?A. 帮我自动回复老板的钉钉(要带幽默感那种)B. 监控我的心率,一旦看到心仪的妹子就自动帮我点外卖送花C. 自动识别代码里的屎山,并发出尖叫声

评论区留下你的脑洞,点赞最高的我考虑写个 Demo 出来!

转载声明

本文为原创内容。转载请注明出处,并保留原文链接。

参考链接

  1. Model Context Protocol 官方文档
  2. Qwen-Agent 开源仓库
  3. Tavily AI 搜索服务
  4. 高德开放平台

Read more

彻底掀翻前端桌子!2026年HTML最被严重低估的神仙功能,直接干废一票JS组件库!

就在上周一,我还在为了一个破下拉菜单,死磕着整整 150 行 JavaScript 代码。这破玩意儿不仅要管展开、收起,还得处理焦点管理和无障碍访问(Accessibility)。更别提那无穷无尽、让人崩溃的 z-index 层级大战了;移动端上按 ESC 键退出的逻辑直接罢工;至于那个“点击空白处自动关闭”的屎山代码,更是让我连吐槽的力气都没有了。 就在我快要砸键盘的时候,我猛然醒悟:Popover API 已经在 2025 年 4 月达成了 Baseline Widely Available(基线广泛可用) 状态!这意味着,它现在已经在 Chrome、Firefox、Safari 和 Edge 里实现了完美的跨浏览器支持。于是,我直接把那个恶心的组件彻底推翻,只用了区区 8 行纯 HTML

前端微前端:别让你的应用变成巨石应用

前端微前端:别让你的应用变成巨石应用 毒舌时刻 这应用做得跟巨石似的,想改个功能都得动全身。 各位前端同行,咱们今天聊聊前端微前端。别告诉我你还在维护一个巨大的单体应用,那感觉就像在没有分区的大房子里生活——能住,但乱得要命。 为什么你需要微前端 最近看到一个项目,代码量超过 100 万行,构建时间超过 10 分钟,团队协作困难。我就想问:你是在做应用还是在做代码仓库? 反面教材 // 反面教材:单体应用 // App.jsx import React from 'react'; import Header from './components/Header'; import Sidebar from './components/Sidebar'; import Dashboard from

Clawdbot整合Qwen3-32B保姆级教程:Web网关18789端口调试全记录

Clawdbot整合Qwen3-32B保姆级教程:Web网关18789端口调试全记录 1. 为什么需要这个整合方案 你是不是也遇到过这样的问题:想用本地部署的大模型做聊天机器人,但发现直接调用Ollama的API在Web前端里跨域报错?或者Clawdbot配置完后一直连不上模型,控制台疯狂刷404?又或者好不容易跑起来了,发个消息却卡在“正在思考”半天没反应? 这正是我们搭建这套环境时踩过的坑。Clawdbot本身不直接对接Ollama,它需要一个中间层来处理协议转换、请求转发和端口映射。而18789这个端口,就是整个链路里最关键的“通关密码”——它不是随便选的,而是Clawdbot默认监听的Web网关入口。 整套方案的核心逻辑其实很朴素: * 你在浏览器里访问 http://localhost:18789,看到的是Clawdbot的聊天界面 * Clawdbot收到你的消息后,不自己去算答案,而是把请求转给内部代理 * 代理再把请求发到 http://localhost:8080(Ollama API地址) * Ollama调用本地的Qwen3-32B模型生成回复

Z-Image-Turbo输出格式限制:PNG转JPG/WEBP后处理方案

Z-Image-Turbo输出格式限制:PNG转JPG/WEBP后处理方案 你是不是也遇到过这样的烦恼?用Z-Image-Turbo生成了一张特别满意的图片,想分享到社交媒体或者用在网页上,结果发现文件太大了——一张1024×1024的PNG图片,动不动就几兆甚至十几兆,加载慢不说,还特别占存储空间。 更让人头疼的是,很多平台对上传的图片格式和大小都有严格限制。微信朋友圈上传大图会压缩得惨不忍睹,网站上传大文件又慢又容易失败。难道每次生成完图片,还得手动用Photoshop或者在线工具转换格式、压缩大小吗? 今天我就来分享一个简单实用的解决方案:为Z-Image-Turbo添加自动后处理功能,让生成的PNG图片自动转换成更轻量的JPG或WEBP格式,还能智能压缩,保持画质的同时大幅减小文件体积。 1. 为什么需要后处理转换? 1.1 PNG格式的优缺点 先说说Z-Image-Turbo默认输出的PNG格式。PNG是个好格式,它支持透明背景,采用无损压缩,画质保持得非常好。但问题也在这里: * 文件体积大:同样一张1024×1024的图片,PNG格式可能5-10MB,而