AI 进化论:从 Function Calling 到 MCP

AI 进化论:从 Function Calling 到 MCP

AI 进化论:从 Function Calling 到 MCP,你的大模型还在“裸奔”吗?

在这里插入图片描述

文章目录

一、 给 AI 装上手脚:Function Calling 到底是个啥?

1. 专业解释与大白话解读

专业解释:Function Calling(函数调用) 是模型厂商(如 OpenAI、阿里云 Qwen)提供的私有接口功能。它允许开发者预定义一组工具(函数),当模型判断用户意图需要调用外部数据或执行特定操作时,它会输出符合函数签名的 ​**结构化参数(JSON)**​,由后端执行后再将结果反馈给模型生成最终回复。

大白话解读: 想象你雇了一个很有才华但没手没脚的“军师”(大模型)。如果你问他“今天外面几度?”,他只能瞎编。但如果你递给他一个温度计(Function),告诉他怎么读数,他就能先看温度计,再告诉你:“主公,外面 35 度,建议宅着。”

生活案例: 这就像点外卖。你(用户)对大模型说“我饿了”。大模型(外卖员)不会自己做饭,但他知道调用“美团下单”这个函数,填好“红烧肉”和“你的地址”,最后把热腾腾的饭菜送到你手里。

2. 核心功能与代码示例

在 Qwen-Agent 等框架中,Function Calling 可以实现实时数据获取、复杂数学计算和外部系统操作。

# 示例:一个简单的天气查询函数注册from qwen_agent.tools.base import BaseTool, register_tool @register_tool('get_weather')classWeatherTool(BaseTool): description ='获取指定城市的实时天气' parameters =[{'name':'city','type':'string','description':'城市名称,如:北京','required':True}]defcall(self, params:str,**kwargs)->str:# 这里模拟调用 APIimport json args = json.loads(params) city = args['city']returnf"{city}今天晴转多云,25度,适合摸鱼。"

二、 实战演练:搭建你的“门票数据助手”

1. 业务场景介绍

我们需要搭建一个能查询门票销量的助手。它基于 tkt_orders 数据表,包含订单时间、用户 ID、省份、订单金额等字段。

在这里插入图片描述

2. 进阶:一次调用,搞定查询 + 可视化

传统模式下,查数据和画图是分开的。但在进阶版 exc_sql 工具中,我们实现了 自动推断图表字段 并直接返回 Markdown 表格和图片。

核心逻辑实现:

  • SQL 查询: 执行 SQL 获取结果集 df
  • 自动绘图: 优先选字符串列做 X 轴,数值列做 Y 轴。
  • 样式设置: 自动处理标签倾斜 45 度,防止文字重叠。
# 自动推断并绘图的逻辑片段 x_candidates = df.select_dtypes(include=['object']).columns.tolist() x = x_candidates if x_candidates else df.columns y_fields = df.select_dtypes(include=['number']).columns.tolist()import matplotlib.pyplot as plt plt.figure(figsize=(8,5))for col in y_fields: plt.bar(df[x].astype(str), df[col], label=col) plt.xticks(rotation=45) plt.savefig('chart.png')

三、 MCP:AI 界的“USB-C”接口协议来了!

1. 什么是 MCP?

专业解释:Model Context Protocol (MCP) 是 Anthropic 推出的开放协议标准。它旨在标准化 LLM 与外部数据源、工具之间的交互方式,实现“一次开发,多模型兼容”。

大白话解读: 以前每个厂商的 AI 接口都不一样,像极了那个满地找充电线的年代(iPhone 是 Lightning,安卓是 Micro-USB)。​MCP 就是 AI 界的 USB-C​,管你是 Claude、GPT 还是 Qwen,只要插上这个“标准插口”,工具就能通通用起来!

2. MCP 核心架构

  • MCP Host: 运行 AI 的环境(如 Cursor, Claude Desktop)。
  • MCP Client: 负责发起请求的“翻译官”。
  • MCP Server: 提供具体功能的“工具库”。

AI模型/Host

MCP Client

MCP Server

高德地图API

本地数据库

GitHub/Slack


四、 玩转 MCP:从旅游攻略到桌面统计

1. CASE:高德地图旅游助手

通过配置 amap-maps-mcp-server,AI 可以自主调用关键词搜索、路径规划、天气查询等功能,直接为你生成一份详尽的大连一日游攻略,甚至帮你写好 HTML 网页呈现。

在这里插入图片描述

2. CASE:桌面 TXT 统计器(MCP SDK 实战)

使用 Python 的 FastMCP 框架,几行代码就能让 AI 拥有“查看你桌面文件”的超能力。

from pathlib import Path from mcp.server.fastmcp import FastMCP mcp = FastMCP("桌面统计器")@mcp.tool()defcount_desktop_txt_files()->int:"""统计桌面上 .txt 文件的数量""" desktop_path = Path("~/Desktop").expanduser()returnlen(list(desktop_path.glob("*.txt")))if __name__ =="__main__": mcp.run()

五、 脑洞大开:未来 3 大拓展方案

在原有功能的基础上,我们可以进一步把 AI 的“触角”伸向更远的地方:

  1. 智能家居“边缘大脑”:
    • 方案: 利用 MCP 协议连接本地 Home Assistant 服务器。
    • 价值: 告别云端延时。即便断网,你也能对 AI 说:“看我眼神行事,把卧室灯调成猛男粉。”
  2. AI 投资情报局:
    • 方案: 集成 Tavily 搜索 MCP + 实时股价 Function Calling。
    • 价值: AI 自动抓取半导体行业新闻,结合你本地的持仓数据,自动画出盈亏分析图并给出“割肉”建议。
  3. 自动化“代码裁缝”:
    • 方案: 开发一个具备文件修改权限的 MCP Server,接入 IDE。
    • 价值: 发现 Bug 后,AI 不仅仅是“建议”,它能直接“上手”改代码,测通后顺便帮你把 Jira 单子也关了。

六、 总结与互动引导

从私有的 Function Calling 到开放的 ​MCP​,AI 正在从“只会聊天的复读机”进化为“能干活的打工人”。底层能力的进化,意味着开发门槛的进一步降低。

在这里插入图片描述
看到这里的都是真爱!既然 AI 都能帮我统计桌面 TXT 了,你觉得它还有什么“离谱”的用途?A. 帮我自动回复老板的钉钉(要带幽默感那种)B. 监控我的心率,一旦看到心仪的妹子就自动帮我点外卖送花C. 自动识别代码里的屎山,并发出尖叫声

评论区留下你的脑洞,点赞最高的我考虑写个 Demo 出来!

转载声明

本文为原创内容。转载请注明出处,并保留原文链接。

参考链接

  1. Model Context Protocol 官方文档
  2. Qwen-Agent 开源仓库
  3. Tavily AI 搜索服务
  4. 高德开放平台

Read more

IDEA 中的 AI 编程插件怎么选?Copilot / 灵码 / TRAE 实际使用对比

IDEA 中的 AI 编程插件怎么选?Copilot / 灵码 / TRAE 实际使用对比

# 【不吹不黑】Java 开发者真实体验:IDEA 三大 AI 编程插件深度对比(Copilot / TRAE / 灵码) > 本文是一篇**技术交流与使用体验记录**,仅用于分享 Java 开发过程中使用 AI 插件的真实感受与效率提升方式,不涉及任何商业推广或广告行为。 *** ## 一、写在前面:为什么要写这篇文章 过去一年,大模型能力的跃迁,直接改变了开发者的工作方式。**AI 已经不再是“写 Demo 的玩具”,而是逐渐演变为 IDE 中的“第二大脑”** 。 本文的目的非常明确: *   记录一名 **Java 后端开发者** 在真实项目中使用 AI 插件的体验 *   对比不同插件在 **补全、对话、Agent 工作流** 等方面的差异 *   帮助开发者根据自身场景选择合适的工具,而不是盲目跟风 本文所有结论,

【收藏】大模型训练加速秘籍:LLaMA Factory与Megatron-LM的无缝集成方案

序言 LLaMA Factory 是一个广受欢迎的开源大模型微调平台,以其简洁的 API、丰富的训练范式支持(如 (增量)预训练、(多模态)指令监督微调、奖励模型训练、PPO 训练、DPO 训练、KTO 训练、ORPO 训练等)和活跃的中文社区, 成为国内开发者进行LLM 微调的首选工具之一。其基于 Hugging Face Transformers生态构建,支持使用 Accelerate或 DeepSpeed 作为训练加速后端,在单机多卡场景下表现优异。 然而,当面对百亿参数以上的大模型或大规模多节点分布式训练需求时,传统基于数据并行的训练方案(如 ZeRO 或 FSDP)往往面临通信瓶颈与显存效率不足的问题。 此时,若能将 LLaMA Factory强大的数据处理与训练配置能力,与 NVIDIA Megatron-LM 这类专为超大规模模型设计的高性能分布式训练框架相结合,将显著提升训练吞吐与可扩展性。

Altera FPGA 的 Avalon MM总线接口规范介绍(精简版)

Altera FPGA 的 Avalon MM总线接口规范介绍(精简版)

本文参考Altera文档:1. Introduction to the Avalon® Interface Specifications Avalon总线是一种协议较为简单的片内总线,主要用于连接片内处理器与外设,以构成片上可编程系统(SOPC)。使用Avalon接口能够轻松连接Intel FPGA中的各个组件,从而简化了系统设计。Avalon接口常用于高速数据流传输、读写寄存器和存储器、控制片外器件等。此外,也可以使用Avalone接口自定义组件,以增强设计的互操作性。 Avalon共有以下七种接口: * Avalon Clock Interface, Avalon时钟接口 -- 驱动或接收时钟信号的接口。 * Avalon Reset Interface, Avalon复位接口 -- 驱动或接收复位信号的接口。 * Avalon Memory Mapped Interface (Avalon-MM), Avalon存储器映射接口 -- 基于地址的读/写接口,是主-从连接的典型接口。 * Avalon Streaming Interface (Avalon-ST),

具身智能论文阅读:OpenVLA:An Open-Source Vision-Language-Action Model

Abstract 在大规模互联网视觉-语言数据与多样化机器人示范的组合上预训练的大型策略,有潜力改变我们教机器人新技能的方式:与其从零开始训练新行为,不如通过微调这些视觉-语言-动作(vision-language-action, VLA)模型,来获得稳健且可泛化的视觉运动控制策略。然而,VLA 在机器人领域的广泛应用仍面临挑战:1)现有的 VLA 大多是封闭的,公众无法访问;2)先前的工作未能探索高效微调 VLA 以适应新任务的方法,而这是实现广泛应用的关键环节。 针对这些挑战,我们提出了 OpenVLA,一款拥有 70 亿参数的开源 VLA,训练数据来自多样化的 97 万条真实机器人示范。OpenVLA 基于 Llama 2 语言模型,并结合视觉编码器,该编码器融合了 DINOv2 与 SigLIP 的预训练特征。得益于数据多样性的增加和新模型组件的引入,OpenVLA 在通用操控任务上表现出强劲性能:在 29 个任务和多种机器人实体上,其绝对任务成功率较封闭模型