【粉丝福利社】构建自主AI深入A2A协议的智能体开发

【粉丝福利社】构建自主AI深入A2A协议的智能体开发

💎【行业认证·权威头衔】
✔ 华为云天团核心成员:特约编辑/云享专家/开发者专家/产品云测专家
✔ 开发者社区全满贯:ZEEKLOG博客&商业化双料专家/阿里云签约作者/腾讯云内容共创官/掘金&亚马逊&51CTO顶级博主
✔ 技术生态共建先锋:横跨鸿蒙、云计算、AI等前沿领域的技术布道者

🏆【荣誉殿堂】
🎖 连续三年蝉联"华为云十佳博主"(2022-2024)
🎖 双冠加冕ZEEKLOG"年度博客之星TOP2"(2022&2023)
🎖 十余个技术社区年度杰出贡献奖得主

📚【知识宝库】
覆盖全栈技术矩阵:
◾ 编程语言:.NET/Java/Python/Go/Node…
◾ 移动生态:HarmonyOS/iOS/Android/小程序
◾ 前沿领域:物联网/网络安全/大数据/AI/元宇宙
◾ 游戏开发:Unity3D引擎深度解析

文章目录


🚀前言

A2A是实现多个Agent之间通信和协作的开放标准,最初由Google开发,现在则是在Linux基金会的管理下继续发展。其目标是让不同框架、不同开发厂商以及不同编程语言实现的Agent能够顺畅互操作。

Agent的概念由来已久,一直以个人助理的角色存在,但随着大语言模型的迅猛发展,其进化速度得到了极大提升。2023年4月发布的AutoGPT是一款划时代的产品,它与此前OpenAI发布的GPT-4密切相关,Agent由此升级为AI Agent,并凭借主动思考、主动决策、主动执行等自主特性而稳固立足。与传统的附属于人类的助理相比,AI Agent正朝着更独立、更智能、更具创造力的方向发展。

自AutoGPT发布以来,AI Agent已发展两年有余,相关的开发框架与产品如雨后春笋般涌现,各大厂商也在这一领域持续加码。微软已开源多个框架,其中两年前发布的AutoGen与Semantic Kernel至今仍保持活力,而新推出的Agent Framework则有望整合二者;Google Agent Development Kit与OpenAI Agents SDK专为构建多功能Agent而设计;LangChain、LangGraph、Pydantic AI、CrewAI等一批明星开源项目也共同推动了该领域的繁荣。此外,Anthropic在主导MCP(Model Context Protocol,模型上下文协议)的同时,持续深耕Agent技术,其新近推出的Agent Skills专注于开发具备专业知识的智能体。

Agent发展的核心动力源于对大语言模型落地应用的更深层次追求。尽管对话与内容创作覆盖了生成式人工智能的大部分场景,但业界对AI的期待更高,期望其能够自主决策,从而解决实际生产与生活中的问题。为此,CoT、ReAct、ToT等基于提示词的思维框架为Agent赋予了结构化的推理能力;同时,大模型所提供的工具调用(Function-Calling)特性,使其具备了执行操作的基础。至此,Agent已逐渐演进为大语言模型落地应用的最佳载体。

Agent的发展非常迅速,在单一平台或同一产品内,Agent与Agent之间的沟通通常不存在障碍,但多个平台、不同厂家和多种编程语言开发的Agent之间的协作仍然存在技术问题。单纯用于对话的OpenAI Completions兼容接口在解决这一问题时效果并不理想,而在大模型应用领域广泛使用的MCP更侧重于文本内容的交换,不太适合多个Agent之间的能力发现和精确调用。在这种情况下,A2A协议应运而生,它通过Agent Card对外传达智能体所具备的技能,信息以纯文本、二进制文件和结构化文本等形式在Agent之间流动,从而解决了多Agent、跨平台、跨语言等情况下的集成问题。Google并非唯一提出这一概念的公司,IBM的ACP(Agent Communication Protocol,智能体通信协议)在A2A之前已发布。但在大模型应用领域,生态系统通常更加重要。近期,ACP有计划与A2A合并。

A2A是一个较新的协议,自2025年6月正式发布以来,已经历3个小版本迭代,其生命力源于设计的简洁性,以及对多语言、多模态、流式传输、安全性和可观察性等特性的原生支持。目前,A2A已获得150多家AI厂商与开源组织的支持,Python、Java、JavaScript、C#/.NET和Go五种语言的SDK均已发布稳定版本(Stable),主流第三方产品也普遍跟进其最新标准。

🚀一、构建自主AI深入A2A协议的智能体开发

本文送出的书籍是这本:

在这里插入图片描述

🔎1.编辑推荐

《构建自主AI:深入A2A协议的智能体开发》是当前市场上深度解析A2A(AgenttoAgent)协议与AIAgent开发方面的参考书。它直击行业痛点——不同智能体框架间的互操作性难题,提供了从理论到实战的系统解决方案。内容涵盖A2A的核心价值、安全框架,并结合ADK、LangGraph、SemanticKernel等10种主流AIAgent框架,通过丰富、低门槛的开源案例,指导读者快速掌握构建多Agent协作系统的关键技术。无论您是AI初学者还是资深开发者,《构建自主AI:深入A2A协议的智能体开发》都将助您构建更自主、更智能、跨平台互联互通的新一代人工智能应用。

🔎2.内容简介

《构建自主AI:深入A2A协议的智能体开发》从实战的角度讲解A2A协议的相关知识,涵盖A2A的基本概念和工作原理、基于该协议的开发流程,以及将A2A融入各种AIAgent开发框架的实际案例。在内容组织上,《构建自主AI:深入A2A协议的智能体开发》分为基础篇、开发篇和应用篇三大部分,共18章。基础篇(第1、2章)讲解A2A的基本概念、核心价值、发展历程、技术原理,并提供一个极简入门案例;开发篇(第38章)围绕A2A的各关键技术展开,介绍A2A的基础应用、Agent多轮交互、Agent协作、多模态应用、安全框架等的开发方法,同时开发了一个简易的A2A验证器,以Web界面的形式展示A2A消息封装的过程与AgentCard的内容解析;应用篇(第918章)面向A2A应用与AIAgent集成的实际需求,提供10个实用案例,涵盖使用ADK、BeeAI、PydanticAI、MCP、CrewAI、LlamaIndex、LangGraph、SemanticKernel、AG2和AgentFramework等框架开发Agent的方法,并讲解如何通过A2A对外发布这些Agent的服务能力。《构建自主AI:深入A2A协议的智能体开发》内容全面、技术体系完整、操作步骤详尽、源代码完整,适合作为A2A及Agent初学者和开发者的实践指南。

🔎3.作者简介

高强文毕业于电子科技大学,数字技术正高级工程师,现任互链高科(北京)技术发展有限公司总经理,从事医疗医保信息化工作20多年,近年来积极投身于开源生态建设,开发和运营着多个开源社区,著有《大模型项目实战:多领域智能应用开发》和《大模型项目实战:Agent开发与应用》。

🔎4.产品特色

在这里插入图片描述

🔎5.目录

目 录 第1篇 基础篇 第 1 章 理解A2A:概念、架构与演进 21.1 A2A核心概念解析 21.1.1 A2A的基本概念 21.1.2 A2A的主要特性 31.1.3 A2A的核心价值 41.2 A2A生态演进之路 51.2.1 A2A产生背景 51.2.2 A2A关键版本迭代 51.2.3 A2A社区生态 61.3 A2A协议概览 71.3.1 A2A核心概念 71.3.2 A2A基本通信元素 81.3.3 A2A传输方式 111.3.4 A2A安全框架 121.4 横向技术对比 121.4.1 A2A与MCP对比 131.4.2 A2A与Function-Calling对比 131.5 本章小结 14 第 2 章 极简入门:快速构建第一个A2A应用 152.1 开发环境全栈指南 152.1.1 操作系统要求 162.1.2 大模型服务要求 162.1.3Python虚拟化环境 172.2 实验环境安装与配置 182.2.1Ollama安装与配置 192.2.2Miniconda的安装与验证 192.3 入门案例场景设计 202.4 架构与核心组件 202.4.1AgentCard服务能力描述 212.4.2 HTTP Server通信通道的实现 212.4.3 A2A Application HTTP服务载体 212.4.4RequestHandler的分发职责 222.4.5TaskStore持久化方案 222.4.6AgentExecutor调度者角色 222.4.7Agent具体业务实现 232.4.8Client请求发起方的职能 232.5 最简A2A应用实现过程 232.5.1 源代码结构详解 232.5.2 运行最简A2A应用 282.6 本章小结 30 第2篇 开发篇 第 3 章 实战基础应用:单次、任务与流式处理 323.1 案例应用场景设计 323.2 对话型Agent实现过程 333.2.1 实现原理与主要组件 333.2.2 对话型Agent源代码 343.2.3 单独测试Agent功能 363.3 案例一:消息单次返回模式 363.3.1 实现原理与架构 373.3.2 消息单次返回模式案例源代码 373.3.3 运行消息单次返回模式案例 413.4 案例二:异步任务处理模式 413.4.1 实现原理与架构 413.4.2 异步任务处理模式案例源代码 433.4.3 运行异步任务处理模式案例 473.5 流式响应模式探讨 473.6 本章小结 48 第 4 章 构建A2A验证器:服务治理与验证 494.1 验证器的应用场景与价值 494.2 A2A验证器的实现原理 504.2.1AgentCard的获取与兼容性处理 514.2.2 A2A返回消息的解析 514.2.3Web界面的构建方法 514.3 A2A验证器实现过程 524.3.1 A2A验证器源代码 524.3.2 运行A2A验证器 574.3.3 验证A2A Server584.4 A2A验证器的产品化探讨 604.5 本章小结 61 第 5 章 实现多轮交互:状态管理与上下文保持 625.1 复杂交互场景设计 625.2 实现原理与架构 635.3 多轮交互实现过程 645.3.1 拥有状态维护机制的Agent实现 645.3.2 A2A Server源代码 675.3.3 A2A Client源代码 695.3.4 运行多轮交互应用 705.4 存储与消息交互优化措施探讨 715.5 本章小结 72 第 6 章 多Agent协作系统:从原理到实现 736.1 多Agent协作应用场景 736.2 多Agent协作实现原理 746.2.1 多Agent协作流程设计 746.2.2WebUI工作原理分析 756.3 多Agent协作实现过程 766.3.1 多Agent协作源代码 766.3.2 运行多Agent协作应用 786.4 其他协作方案探讨 806.5 本章小结 81 第 7 章 开发多模态A2A应用:视频下载与传输 827.1 多模态应用场景 827.2 实现原理与通信设计 837.2.1 多模态交互流程设计 837.2.2 通信协议与数据支持 847.3 多模态应用实现过程 867.3.1 视频下载Agent实现 867.3.2 A2A Server源代码 897.3.3 A2A Client源代码 927.3.4 运行多模态应用 947.4 本章小结 95 第 8 章 构建企业级安全框架:认证与通道保护 968.1 A2A安全框架概述 968.2Bearer身份认证实现 978.2.1Bearer认证原理 978.2.2Bearer认证过程 978.2.3Bearer认证实例实现详解 998.2.4 运行Bearer认证实例 1048.3 动态Token身份认证实现 1058.3.1 动态Token认证原理 1068.3.2 动态Token认证过程 1068.3.3 动态Token认证实例 1088.3.4 运行动态认证实例 1178.4 A2A通道安全保障 1188.4.1 整体安全要求 1188.4.2 HTTPS配置详解 1198.5 本章小结 122 第3篇 应用篇 第 9 章 ADK集成:专为Agent开发而设计 1259.1 将Agent封装到A2A Server1269.2 使用ADK高效开发Agent1279.2.1 ADK应用场景 1279.2.2 ADK关键概念 1279.2.3 ADK开发的极简Agent源代码 1289.2.4 运行ADK开发的极简Agent1309.3 用Web页面测试Agent1329.3.1 可用于Web页面测试的Agent源代码 1329.3.2 在Web页面测试Agent1339.4 ADK与A2A-SDK互操作 1349.4.1 互操作A2A Client源代码 1349.4.2 运行互操作A2A Client1359.5 基于ADK的多Agent协作 1359.5.1 多Agent协作源代码 1369.5.2 运行多Agent协作应用 1379.6 本章小结 138 第 10 章 BeeAI集成:ReAct与需求Agent实战 13910.1BeeAI简要介绍 13910.1.1BeeAI主要特性 13910.1.2BeeAI与A2A的关系 14010.2ReActAgent与A2A集成 14010.2.1ReActAgent应用流程 14010.2.2ReActAgent应用场景 14110.2.3ReActAgent源代码 14210.2.4 运行ReActAgent14410.3 需求Agent与A2A集成 14610.3.1 需求Agent应用流程 14610.3.2 需求Agent应用场景 14710.3.3 需求Agent源代码 14710.3.4 运行需求Agent14910.4 本章小结 150 第 11 章 Pydantic AI集成:多种集成方案 15111.1Pydantic AI介绍 15111.1.1Pydantic AI设计理念 15111.1.2Pydantic AI主要特性 15211.2 基于Fast A2A的轻量级集成 15211.2.1 集成原理与架构 15311.2.2 典型应用场景 15411.2.3 A2A Server端实现 15411.2.4 A2A Client端实现 15611.3 基于A2A-SDK的完整功能集成 15911.3.1 集成原理与流程 15911.3.2 典型应用场景 15911.3.3 A2A集成源代码 15911.3.4 A2A-SDK集成案例 16211.4 本章小结 163 第 12 章 MCP集成:扩展AI模型的能力边界 16412.1 MCP应用场景与价值 16412.2 实现原理与跨语言架构 16512.3 A2A与MCP集成实现过程 16612.3.1 集成Agent实现 16612.3.2 A2A Client实现 17112.4 MCP与A2A其他集成方式探讨 17212.4.1 整合远程MCP服务 17212.4.2 MCP-SDK与A2A-SDK对接 17312.5 本章小结 174 第 13 章 CrewAI集成:构建角色驱动的协作系统 17513.1CrewAI工作模式与主要特性 17613.1.1CrewAI简介 17613.1.2CrewAI工作模式 17613.1.3CrewAI主要特性与优势 17813.2CrewAIAgent案例 17913.2.1CrewAIAgent应用场景 17913.2.2CrewAIAgent实现原理 17913.2.3CrewAIAgent源代码 18013.2.4 运行CrewAIAgent18213.3CrewAI与A2A集成方法 18313.3.1 A2A Server源代码 18313.3.2 A2A Client源代码 18513.3.3 运行CrewAI与A2A集成案例 18613.4 集成MLflow实现实验追踪 18713.4.1MLflow简介 18713.4.2MLflow服务配置 18813.4.3 源代码改造过程 19013.4.4 追踪实例与分析 19113.5 本章小结 192 第 14 章 LlamaIndex集成:构建知识增强应用 19314.1LlamaIndex介绍 19414.1.1LlamaIndex简介 19414.1.2LlamaIndex主要特性 19414.2LlamaIndex应用案例 19514.2.1ReActAgent应用场景 19514.2.2ReActAgent实现原理 19514.2.3ReActAgent源代码 19714.2.4 运行ReActAgent20114.3LlamaIndex与A2A集成 20214.3.1 A2A Server源代码 20214.3.2 A2A Client源代码 20414.3.3 运行LlamaIndex与A2A集成案例 20514.4 集成MLflow追踪LlamaIndex20614.5 本章小结 207 第 15 章 LangGraph集成:构建有状态的AI工作流 20815.1LangGraph介绍 20815.1.1LangGraph简介 20915.1.2LangGraph适用场景 20915.1.3LangGraph与LangChain的对比 20915.2 智能问答系统应用场景 21015.3 智能问答系统实现原理 21115.4 智能问答系统实现过程 21215.4.1LangGraphAgent源代码 21215.4.2 单独测试Agent功能 21615.4.3LangGraph与A2A的集成 21715.4.4 A2A Client实现 21915.5 本章小结 221 第 16 章 SemanticKernel集成:微软语义应用生态 22216.1SemanticKernel介绍 22216.1.1SemanticKernel简介 22316.1.2SemanticKernel主要特性 22316.1.3SemanticKernel与微软另两款产品的对比 22416.2 线上询价应用场景 22416.3 线上询价应用实现原理 22416.4 线上询价应用实现过程 22516.4.1SemanticKernelAgent22516.4.2 基于A2A-SDK的集成 22816.5 本章小结 232 第 17 章 AG2集成:多智能体编程助理应用 23317.1 AG2介绍 23317.1.1 AG2主要特性 23317.1.2 AG2对A2A的支持 23417.2 多智能体编程助理应用场景 23517.3 多智能体编程助理实现过程 23617.3.1 A2A Server源代码 23617.3.2 A2A Client源代码 23717.3.3 运行编程助理应用 23917.4 AG2与其他Agent框架的互操作性 24017.4.1 AG2 Agent调用Pydantic AI Agent24117.4.2 A2A-SDK Client调用AG2 Agent24317.5 本章小结 246 第 18 章 AgentFramework集成:DeepResearch的Agent实现 24718.1AgentFramework介绍 24718.1.1AgentFramework主要特性 24718.1.2AgentFramework对A2A的支持 24818.2 基于工作流的DeepResearch的应用场景 24818.2.1DeepResearch基本概念 24818.2.2DeepResearchAgent工作流程 24918.3 基于工作流的DeepResearchAgent的实现过程 25018.3.1DeepResearchAgent源程序 25018.3.2 运行DeepResearchAgent25318.4AgentFramework与A2A的集成方法 25418.4.1 A2A Server源程序 25418.4.2 A2A Client源程序 25618.4.3 测试AgentFramework与A2A的集成 25718.5 本章小结 258

需要完全了解本书可以看下面:

链接🔗:地址《构建自主AI深入A2A协议的智能体开发》

Read more

Windows 11 配置 CUDA 版 llama.cpp 并实现系统全局调用(GGUF 模型本地快速聊天)

Windows 11 配置 CUDA 版 llama.cpp 并实现系统全局调用(GGUF 模型本地快速聊天)

Windows 11 配置 CUDA 版 llama.cpp 并实现系统全局调用(GGUF 模型本地快速聊天) 前言 在本地快速部署大模型进行离线聊天,llama.cpp 是轻量化、高性能的首选工具,尤其是 CUDA 版本能充分利用 NVIDIA 显卡的算力,大幅提升模型推理速度。本文将详细记录在 Windows 11 系统中,从环境准备、CUDA 版 llama.cpp 配置,到实现系统全局调用、快速运行 GGUF 格式模型的完整步骤,全程基于实际操作验证,适配 RTX 3090 等 NVIDIA 显卡,新手也能轻松上手。 https://github.com/ggml-org/llama.cpp

By Ne0inhk
GitHub使用指南(保姆级教学)2025年12月15日版

GitHub使用指南(保姆级教学)2025年12月15日版

一、GitHub简介 GitHub是一项基于云的服务,为软件开发和Git版本控制提供Internet托管。这有助于开发人员存储和管理他们的代码,同时跟踪和控制对其代码的更改。 功能类别具体功能功能说明代码托管与版本控制    仓库(Repository)管理支持创建公共和私有代码仓库,用于存储代码、文档等资源,免费版可满足无限协作者的私有仓库需求。分支与合并管理    支持创建分支独立开发功能,可通过合并请求整合代码,还能设置分支保护规则,限制特定人员操作以保障代码安全。提交历史追踪    完整记录代码的每一次修改,包括修改人、时间、内容,支持版本回滚,可随时恢复到历史稳定版本。代码搜索与浏览支持按文件、目录、符号等维度在线搜索代码,界面直观,可快速定位和查看代码细节。团队协作相关Pull Request(PR)开发者完成代码修改后提交合并请求,期间可开展多轮讨论,待审核通过后再合并至主分支。代码评审支持在代码行级别添加评论,标注问题或建议,搭配 Code Owners 功能,确保关键代码变更经过对应负责人审核。Issues 跟踪用于记录和管理任务、漏洞、需求等,可分配负责人、

By Ne0inhk

VSCode + Copilot下:配置并使用 DeepSeek

以下是关于在 VSCode + Copilot 中,通过 OAI Compatible Provider for Copilot 插件配置并使用 DeepSeek 系列模型 (deepseek-chat, deepseek-reasoner, deepseek-coder) 的完整汇总指南。 🎯 核心目标 通过该插件,将支持 OpenAI API 格式的第三方大模型(此处为 DeepSeek)接入 VSCode 的官方 Copilot 聊天侧边栏,实现原生体验的调用。 📦 第一步:准备工作 在开始配置前,请确保已完成以下准备: 步骤操作说明1. 安装插件在 VSCode 扩展商店搜索并安装 OAI Compatible Provider for Copilot。这是连接 Copilot 与第三方模型的核心桥梁。2. 获取 API

By Ne0inhk
GitHub Copilot 调用第三方模型API

GitHub Copilot 调用第三方模型API

一、说明 OAI Compatible Provider for Copilot 的作用是:把 Copilot/Copilot Chat 发出的“类似 OpenAI API 的请求”,转发到指定的 OpenAI-Compatible 服务端(例如 ModelScope 推理网关、自建的兼容网关等)。 ⚠️ Warning 登录 GitHub Copilot 的账号一定要是非组织方式开通 pro 会员的,不然无法管理模型。 推荐直接用免费的free账号登录即可。 二、插件安装 在 VS Code 扩展市场安装并启用: * GitHub Copilot * GitHub Copilot Chat * OAI Compatible Provider for Copilot (johnny-zhao.

By Ne0inhk