AI 中的skill、mcp和 Function Call

AI 中的skill、mcp和 Function Call

 Skill(技能)MCP(模型上下文协议) 和 Function Call(函数调用) 这三个概念。

简单来说,你可以这样理解:

  • Function Call 是基础的、标准的“能力调用机制”。
  • Skill 是面向用户的、打包好的“功能产品”。
  • MCP 是连接 AI 与外部资源和工具的“新一代通信协议”。

1. Function Call(函数调用)

这是最基础、最广泛使用的概念,主要由 OpenAI 在 2023 年 6 月引入并普及。

  • 是什么: 一种让大语言模型(如 GPT-4)能够智能地决定在何时、以何种参数调用开发者预先定义好的函数(或工具) 的机制。它不是直接执行代码,而是输出一个结构化的调用请求。
  • 如何工作
    1. 定义: 开发者向模型描述一系列可用的函数(包括函数名、描述、参数列表及参数类型)。
    2. 决策: 用户提问后,模型根据对话上下文判断是否需要调用函数,以及调用哪个函数、参数是什么。
    3. 响应: 模型返回一个结构化的 JSON 对象(如 {“name”: “get_weather”, “arguments”: {“location”: “Beijing”}}),而不是自然语言。
    4. 执行: 应用程序收到这个 JSON 后,在本地或服务器端实际执行对应的代码,获取结果(如调用天气 API)。
    5. 回复: 将执行结果返回给模型,模型再组织成自然语言回复给用户。
  • 特点
    • 标准化: 已成为众多模型(OpenAI, Anthropic, 国内大模型等)支持的标准特性。
    • 核心机制: 是实现 AI 与外部世界交互的基石。
    • 开发层: 主要面向开发者,用户感知不强。

示例:你问“北京天气怎么样?”,模型不是瞎猜,而是“调用”了你定义的 get_weather(location) 函数,并将 API 返回的真实数据告诉你。


2. Skill(技能)

这是一个更高层、更产品化的概念,常见于 AI 智能体(AI Agent)和 AI 应用平台(如扣子/Coze, GPTs, Dify)。

  • 是什么: 一个封装好的、可重复使用的功能模块或 AI 能力。一个 Skill 内部可能包含提示词、知识库、一个或多个 Function Call、工作流等。
  • 如何工作
    1. 构建: 在平台上通过可视化或配置化的方式,将一个完整的能力打包。例如,一个“订机票”Skill 可能包含:查询航班、获取价格、填写订单等多个步骤或函数。
    2. 调用: 用户通过自然语言触发(如“我想去上海”),AI 智能体自动识别并调用最匹配的 Skill。
    3. 执行: Skill 作为一个整体在后台运行,可能串联多个动作,最终返回结果。
  • 特点
    • 产品化: 是终端用户可以直接理解和使用的东西(如“翻译技能”、“画图技能”)。
    • 可组合性: 可以在智能体中安装多个 Skills,让它具备多种能力。
    • 封装性: 隐藏了底层复杂的函数调用和逻辑,提供端到端的体验。

示例:在 Coze 平台上,你安装了一个“全网搜索” Skill。当用户问“最近有什么科技新闻?”时,你的 Bot 会自动使用这个 Skill 去搜索并返回结果。这个 Skill 底层就是通过 Function Call 来调用搜索 API。


3. MCP(Model Context Protocol,模型上下文协议)

这是一个由 Anthropic 提出并主导的开放协议,旨在标准化 AI 模型与外部资源(服务器、数据库、API 等)的交互方式。可以看作是 Function Call 的“进化版”或“标准化版本”。

  • 是什么: 一个客户端-服务器协议。它定义了一套标准,让任何兼容 MCP 的“服务器”(提供资源的工具)都能轻松地被任何兼容 MCP 的“客户端”(AI 应用或 IDE)使用。
  • 如何工作
    1. 服务器: 任何工具(如文件系统、数据库、日历 API)都可以实现为 MCP 服务器,它向客户端宣告自己提供哪些“资源”和“工具”。
    2. 客户端: AI 应用(如 Claude Desktop, Cursor IDE)作为 MCP 客户端,启动时可以连接一个或多个 MCP 服务器。
    3. 通信: 客户端和服务器通过标准的 JSON-RPC 消息进行通信。当用户需要时,客户端会从服务器获取资源列表或调用工具,并将结果提供给 AI 模型。
  • 特点
    • 协议化与标准化: 解决了不同 AI 模型和工具之间“各自为政”的问题。工具开发者只需实现一次 MCP 接口,就能被所有支持 MCP 的 AI 使用。
    • 动态发现: 客户端可以动态地发现服务器提供的工具,无需在提示词中硬编码。
    • 资源概念: 不仅限于“工具/函数”,还引入了“资源”(如文件、数据库条目)的概念,AI 可以读取资源内容作为上下文。
    • 安全性: 连接通常本地化,资源访问可控,比传统的将 API 密钥暴露给模型更安全。

示例: 你在本地运行了一个 sqlite MCP 服务器和一个 filesystem MCP 服务器。当你使用 Claude Desktop 时,你可以直接说:“请查询我/projects目录下的schema.sql文件,然后根据它告诉我数据库中有哪些表。” Claude 会通过 MCP 协议读取文件内容,并调用 SQLite 工具执行查询,整个过程无需你手动配置复杂的 Function Call。

总结对比

特性Function CallSkillMCP
层级基础机制(原子操作)产品模块(功能集合)通信协议(基础设施)
目标让模型能调用单个外部函数为用户提供完整的、可复用的能力标准化模型与外部工具的交互方式
面向对象开发者终端用户 / 低代码开发者工具开发者 & AI 应用开发者
关键优势直接、灵活、广泛支持易用、可组合、端到端标准化、可发现、安全、资源感知
类比单个“积木”打包好的“乐高套装”统一的“积木连接接口标准”

维度Function CallSkillMCP
抽象层级模型原生接口应用功能模块通信协议标准
厂商绑定是(OpenAI/Anthropic 等)否(框架无关)否(开放标准)
互操作性低(各厂格式不同)中(依赖框架)高(统一协议)
开发复杂度低(直接用 API)中(需封装逻辑)中(需实现 server)
适用场景快速集成简单工具构建复杂 Agent企业级多模型/多工具集成
  • Function Call 是"脑":决定做什么
  • MCP 是"神经系统":传递信号到手脚
  • Skill 是"职业技能":知道如何专业地做事

关系与趋势

  • Skill 建立在 Function Call 之上:一个复杂的 Skill 内部会利用多次 Function Call 来完成工作。
  • MCP 可以视为 Function Call 的标准化演进:它提供了更丰富、更安全、更动态的工具调用和资源访问方式。未来,AI 应用的“Function Call”能力很可能通过 MCP 协议来实现。
  • MCP 赋能 Skill 开发:在支持 MCP 的平台上,开发 Skill 可以更简单,直接接入丰富的 MCP 服务器资源,而无需从零编写每一个函数。

演进趋势(截至 2026 年)

  1. 短期:Function Call + Skill 是主流(如 LangChain + OpenAI)。
  2. 中期:MCP 逐渐被 IDE(如 Cursor)、AI 平台(如 Databricks)采用,成为“AI 操作系统”的一部分。
  3. 长期:MCP 可能成为类似 HTTP 的基础协议——任何 AI 都能通过 MCP 访问世界上的服务。
💡 类比:Function Call ≈ 浏览器原生的 fetch()Skill ≈ 封装好的 Axios 或 SDKMCP ≈ RESTful API 标准 + OpenAPI 规范

总结

  • Function Call能力基础:没有它,LLM 无法与外部世界交互
  • MCP连接标准:没有它,每个工具都需要定制开发集成(N×M 问题)
  • Skill价值封装:没有它,AI 只是工具的执行者,而非业务专家




Read more

Vivado完整license文件获取与配置指南

本文还有配套的精品资源,点击获取 简介:Vivado是由Xilinx开发的FPGA和SoC设计综合工具,支持Verilog、VHDL等硬件描述语言,提供高级综合、仿真、IP集成等功能。本资源包“Vivado_的license文件.zip”包含用于解锁Vivado完整功能的许可证文件。介绍了许可证服务器配置、.lic文件管理、浮动与固定许可证区别、激活流程、更新与诊断等核心内容。适用于FPGA开发者、嵌入式系统工程师及学习者,帮助其合法配置Vivado环境,提升开发效率和项目执行能力。 1. Vivado工具与FPGA开发环境概述 Xilinx Vivado设计套件是面向FPGA和SoC开发的集成化软件平台,广泛应用于通信、工业控制、人工智能、嵌入式视觉等多个高科技领域。其核心功能包括项目创建、综合、实现、仿真、调试及系统级集成,支持从设计输入到硬件验证的全流程开发。 Vivado不仅提供了图形化界面(GUI)便于初学者快速上手,还支持Tcl脚本自动化操作,满足高级用户的大规模工程管理需求。其模块化架构设计使得开发者可以灵活选择所需功能组件,如HLS(高层次综合)、IP In

GTC2026前瞻(二)Agentic AI 与开源模型篇+(三)Physical AI 与机器人篇

GTC2026前瞻(二)Agentic AI 与开源模型篇+(三)Physical AI 与机器人篇

(二)Agentic AI 与开源模型篇 Agentic AI与开源模型:英伟达想定义的,不只是“更聪明的模型”,而是“能持续工作的数字劳动力” 如果说过去两年的大模型竞赛,核心问题还是“谁能生成更像人的答案”,那么到了 GTC 2026,问题已经明显变了。英伟达把 Agentic AI 直接列为大会四大核心主题之一,官方对这一主题的定义也很明确:重点不再是单轮问答,而是让 AI agent 能够推理、规划、检索并执行动作,最终把企业数据转化为可投入生产的“数字劳动力”。这说明,Agentic AI 在英伟达的语境里,已经不是一个前沿概念,而是下一阶段 AI 商业化的主战场。(NVIDIA) 一、GTC 2026真正的变化,是 AI 开始从“会回答”走向“会做事”

低代码AI架构:让灵活智能架构落地更简单(附实战demo)

低代码AI架构:让灵活智能架构落地更简单(附实战demo) 一、引入:当AI落地遇到“开发高墙”,低代码如何成为破局钥匙? 1. 一个真实的痛点故事 某零售企业的工程师小李最近很头疼。公司想做一个实时客户画像系统,需要从APP行为数据中提取用户偏好,预测购买意图,支撑精准推荐。但传统开发流程像一座“高墙”: * 数据准备:需要写Python脚本清洗埋点数据,处理缺失值、异常值,花了1周; * 模型开发:选了LightGBM做分类,调参用了GridSearch,跑了3天,准确率才到75%; * 部署上线:需要用Flask写API, Docker打包,K8s部署,还要对接业务系统,又花了2周; * 迭代优化:业务方要求增加“地域偏好”维度,得重新改数据 pipeline、调模型,又是1周。 最终,整个项目花了近1个月,而业务方想要的“快速试错”变成了“慢工出细活”。小李感叹:“AI不是难在算法,而是难在从实验室到生产环境的落地流程。

汽车雷达在多径存在下的幽灵目标检测——论文阅读

汽车雷达在多径存在下的幽灵目标检测——论文阅读

汽车雷达在多径存在下的幽灵目标检测 D. Sharif, S. Murtala and G. S. Choi, “A Survey of Automotive Radar Misalignment Detection Techniques,” in IEEE Access, vol. 13, pp. 123314-123324, 2025, doi: 10.1109/ACCESS.2025.3584454. 摘要 共置多输入多输出(MIMO)技术已被广泛应用于汽车雷达系统,因为它能够以相对较少的发射和接收天线数量提供精确的角度估计。由于视距目标的发射方向(DOD)和到达方向(DOA)重合,MIMO信号处理允许形成更大的虚拟阵列用于角度查找。然而,多径反射是一个主要的限制因素,雷达信号可能从障碍物反弹,创建DOD不等于DOA的回波。因此,在具有多个散射体的复杂场景中,目标的直接路径可能被其他物体的间接路径破坏,导致不准确的角度估计或产生幽灵目标。