Qwen3+Qwen Agent 智能体开发实战,打开大模型MCP工具新方式!(一)

Qwen3+Qwen Agent 智能体开发实战,打开大模型MCP工具新方式!(一)

系列文章目录

一、Qwen3+Qwen Agent 智能体开发实战,打开大模型MCP工具新方式!(一)

二、Qwen3+Qwen Agent +MCP智能体开发实战(二)—10分钟打造"MiniManus"


前言

要说最近人工智能界最火热的开源大模型,必定是阿里发布不久的Qwen3系列模型。Qwen3模型凭借赶超DeepSeek-V3/R1的优异性能,创新的混合推理模式,以及极强的MCP能力迅速成为AI Agent开发的主流基座模型。大家可参考我的文章一文解析Qwen3大模型详细了解Qwen3模型的核心能力。有读者私信我: “Qwen3官网特地强调增强了Agent和代码能力,同时加强了对MCP的支持,那么我该如何利用Qwen3快速开发MCP应用呢?” 这就就需要使用我们今天的主角——Qwen官方推荐的开发工具Qwen-Agent ,本期分享我们就一起学习快速使用Qwen3+QwenAgent 接入MCP服务端,快速开发AI Agent应用!

一、注册 Qwen3 API-Key

本次分享通过阿里云百炼大模型服务平台API Key请求方式调用Qwen3大模型,获取服务平台API Key的步骤如下:

  1. 登录阿里云百炼大模型服务平台,如果页面顶部显示如下消息,大家需要开通百炼的模型服务,点击立即开通即可。

  1. 前往 我的API-KEY页面,单击创建我的API-KEY。
  2. 在已创建的API Key操作列,单击查看,获取API KEY。该API KEY是我们请求Qwen3大模型的重要凭证。
在这里插入图片描述

二、Qwen-Agent快速入门

2.1 Qwen-Agent简介

Qwen-Agent 是阿里通义团队推出的开源智能体(Agent)开发框架,基于 Qwen 大语言模型(LLM)构建,旨在帮助开发者快速构建具备指令遵循、工具调用、规划与记忆等能力的 AI 应用。它提供了从底层原子组件到高级智能体抽象的完整开发工具链,适用于多种复杂任务场景。

在这里插入图片描述


Qwen-Agent具备如下核心特性:

  • 更强的工具调用(Function Calling)能力:框架支持智能体自动调用外部工具或函数,包括内置的代码解释器、浏览器助手等,也支持开发者自定义工具,扩展智能体的能力。
  • 便捷的MCP工具接入流程:最新版的Qwen-Agent已经集成了MCP工具接入流程,我们仅需写入MCP配置,即可在Qwen-Agent中调用MCP工具:
  • 规划与记忆能力: 智能体具备任务规划能力,能够根据用户需求自动制定执行步骤。同时,具备上下文记忆功能,能在对话中保持状态,提供连贯的交互体验。
  • 长文本处理与 RA: Qwen-Agent 集成了检索增强生成(RAG)机制,支持处理从 8K 到 100 万 tokens 的长文档,通过文档分块和相关性检索,提升上下互与展示
  • UI前端交互与展示

2.2 Qwen-Agent 构建多轮对话机器人

Qwen-Agent具备快速接入Qwen系列模型能力,通过Assistant组件,可以实现工具调用、Agent编排和MCP接入等一系列功能。下面通过使用Qwen-Agent开发多轮对话机器人的小案例让大家快速掌握Qwen-Agent的使用方法。完整代码在: https://www.codecopy.cn/post/q1vq4b

  1. 安装相关软件,这里使用anaconda创建虚拟环境并安装相关库,对anaconda使用有疑问的可参照anaconda安装和使用(管理python环境看这一篇就够了)
conda create -n qwen_agent python=3.12 pip install -U "qwen-agent[rag,code_interpreter,gui,mcp]" pip install uv 
  1. 导入需要的类和函数, Assistant是用来创建智能体对象的类, typewriter_print用于格式化和打印消息,会处理函数调用和普通对话的不同执行逻辑(Function Calling),同时对于推理类模型,会判断消息中是否包含 reasoning_content,如果存在,则将其添加到 content 列表中,并在前面加上 THOUGHT_S(表示思考的符号或字符串),从而支持推理类模型和对话模型的不同输入输出形式。
from qwen_agent.agents import Assistant from qwen_agent.utils.output_beautify import typewriter_print 
  1. 配置所使用的模型服务, 注意api_key填入你在百炼平台注册的api_key
llm_cfg={'model':'qwen3-235b-a22b',#可按需更换模型名称。模型列表:https://help.aliyun.com/zh/model-studio/getting-started/models'model_server':'dashscope','api_key':'你注册的api-key','generate_cfg':{'top_p':0.8# top_p越高生成的文本越多样, 范围在0-1.0之间}}
  1. 创建一个智能体对象
bot = Assistant( llm=llm_cfg, system_message='你是一位乐于助人的小助理', name='智能助理')
  1. 构建多轮对话聊天
messages =[]#存储历史聊天内容whileTrue: query =input('\n用户请求:输入 quit 终止对话')if query =='quit':breakelse: messages.append({'role':'user','content': query }) response =[] response_plain_text =''print('AI 回复:')for response in bot.run(messages=messages): response_plain_text = typewriter_print(response, response_plain_text) messages.extend(response)

执行如上代码结果如下,可以看到我们已经成功开启与qwen3模型的对话~

在这里插入图片描述

三、Qwen-Agent接入MCP工具

3.1 项目简介

熟悉Qwen-Agent的基本操作后,下一步开始学习今天的重头戏——Qwen-Agent接入MCP工具。大家不了解MCP相关概念的可先阅读我的MCP系列分享:

Qwen-Agent接入MCP的原理采用stdio开发模式,将mcp服务作为Qwen-Agent应用的子进程, Qwen-Agent作为客户端与子进程服务通信。

本次分享采用Qwen-Agent+Qwen3开发一个sqlite数据库小助手,Qwen-Agent接入mcp-server-sqliteMCP服务器,能够理解自然语言并依据语言内容调用mcp-server-sqlite服务端的功能函数完成对sqlite数据库的相关操作。

3.2 Qwen-Agent接入mcp-server-sqlite

完整代码在https://www.codecopy.cn/post/fum1go

  1. 导入相关包并初始化Assistant类,同时接入mcp-server-sqliteMCP服务端, 接入mcp的流程需要先定义一个tools数组存放json schema格式的mcp服务器配置,和我们在不写一行代码! VsCode+Cline+高德地图MCP Server 帮你搞定和女友的出行规划(附原理解析)中mcp的配置文件类似。
from qwen_agent.agents import Assistant from qwen_agent.utils.output_beautify import typewriter_print definit_agent_service(): llm_cfg={'model':'qwen3-235b-a22b','model_server':'dashscope','api_key':'你的api_key','generate_cfg':{'top_p':0.8}}# 定义MCP服务配置,优点类似Function Calling调用的JSON Schema格式 tools =[{"mcpServers":{"sqlite":{"command":"uvx","args":["mcp-server-sqlite","--db-path","test.db"]}}}] bot = Assistant( llm=llm_cfg, name='数据库管理员', description='你是一位数据库管理员,具有对本地数据库的增删改查能力', system_message='你扮演一个数据库助手,你具有查询数据库的能力', function_list=tools,)return bot 
  1. 定义数据库助手,并构造提示词让Qwen-Agent帮助我们创建一个学生表并添加一些数据。
defrun_query(query=None):# 定义数据库助手 bot = init_agent_service()# 执行对话逻辑 messages =[] messages.append({'role':'user','content':[{'text': query}]})# 跟踪前一次的输出,用于增量打印 previous_text =""print('数据库管理员: ', end='', flush=True)for response in bot.run(messages): previous_text = typewriter_print(response, previous_text)if __name__ =='__main__': query ='帮我创建一个学生表,表名是students,包含id, name, age, gender, score字段,然后插入一条数据,id为1,name为张三,age为20,gender为男,score为95' run_query(query)

执行代码得到如下结果, uvx检测到有些依赖库没有安装,自动安装所需依赖(红字部分)。完成相关依赖安装后Qwen-Agent检测到用户请求中要创建学生表并插入数据,Qwen3模型对mcp-server-sqlite服务端的函数理解生成思考过程,利用sqlite-create_table创建表,并使用sqlite-write_query插入数据。

在这里插入图片描述
  1. 执行完程序发现本地目录下多了名为test.db的数据库文件。

为进一步验证工具调用的正确性,我们使用sqlite3数据库工具查看数据库中的数据,在test.db同级目录下新建py文件并写入如下代码:

在这里插入图片描述
# 查看数据库中的数据import sqlite3 conn = sqlite3.connect('test.db') cursor = conn.cursor()# 先查看数据库中有哪些表 cursor.execute("SELECT name FROM sqlite_master WHERE type='table';") tables = cursor.fetchall()print("数据库中的表:", tables)# 如果有表,则查询第一个表的数据if tables: table_name = tables[0][0] cursor.execute(f"SELECT * FROM {table_name}")print(f"{table_name} 表中的数据:", cursor.fetchall())else:print("数据库中没有表,需要先创建表并插入数据") conn.close()
在这里插入图片描述

可以看到Qwen-Agent成功创建了数据表并插入了数据。以上就是我们今天的分享,怎么样Qwen-Agent的能力是不是特别强大?还在等什么,赶紧利用Qwen-Agent开发属于你的AI Agent吧!

四、总结

本篇分享介绍了如何利用阿里发布的Qwen3系列大模型和Qwen-Agent工具快速接入MCP服务端并开发AI Agent智能体。主要内容包括:

  1. 注册Qwen3 API-Key:通过阿里云百炼平台获取API密钥。
  2. Qwen-Agent入门:介绍了Qwen-Agent核心功能(工具调用、MCP接入、规划与记忆等),并演示了如何构建多轮对话机器人。
  3. 接入MCP工具:以SQLite数据库助手为例,展示了如何配置MCP服务端,实现自然语言操作数据库的功能。

当然这篇分享只是简单的Qwen3+Qwen-Agent+MCP智能体开发案例,别忘了Qwen-Agent 出色的前端交互展示能力我们还没有利用。别着急,下一篇分享我将和大家一起利用Qwen Agent能力复现Qwen3官方网站上自动搜索github数据并生成统计信息的可视化智能体,让你在超短时间内实现一个“Manus”!感兴趣大家点个关注吧。大家也可关注我的同名微信公众号:大模型真好玩,免费分享工作生活中大模型开发教程和资料~

在这里插入图片描述

Read more

AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建

AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建

AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建 作者:高瑞冬 本文目录 * AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建 * 一、MCP协议简介 * 二、创建MCP工具集 * 1. 获取MCP服务地址 * 2. 在FastGPT中创建MCP工具集 * 三、测试MCP工具 * 四、AI模型调用MCP工具 * 1. 调用单个工具 * 2. 调用整个工具集 * 五、私有化部署支持 * 1. 环境准备 * 2. 修改docker-compose.yml文件 * 3. 修改FastGPT配置 * 4. 重启服务 * 六、使用MCP-Proxy集成多个MCP服务 * 1. MCP-Proxy简介 * 2. 安装MCP-Proxy * 3. 配置MCP-Proxy * 4. 将MCP-Proxy与FastGPT集成 * 5. 高级配置

By Ne0inhk
【大模型实战篇】基于Claude MCP协议的智能体落地示例

【大模型实战篇】基于Claude MCP协议的智能体落地示例

1. 背景         之前我们在《MCP(Model Context Protocol) 大模型智能体第一个开源标准协议》一文中,介绍了MCP的概念,虽然了解了其概念、架构、解决的问题,但还缺少具体的示例,来帮助进一步理解整套MCP框架如何落地。         今天我们基于claude的官方例子--获取天气预报【1】,来理解MCP落地的整条链路。 2. MCP示例         该案例是构建一个简单的MCP天气预报服务器,并将其连接到主机,即Claude for Desktop。从基本设置开始,然后逐步发展到更复杂的使用场景。         大模型虽然能力非常强,但其弊端就是内容是过时的,这里的过时不是说内容很旧,只是表达内容具有非实时性。比如没有获取天气预报和严重天气警报的能力。因此我们将使用MCP来解决这一问题。         构建一个服务器,该服务器提供两个工具:获取警报(get-alerts)和获取预报(get-forecast)。然后,将该服务器连接到MCP主机(在本例中为Claude for Desktop)。         首先我们配置下环

By Ne0inhk
基于腾讯云HAI + DeepSeek快速设计自己的个人网页

基于腾讯云HAI + DeepSeek快速设计自己的个人网页

前言:通过结合腾讯云HAI 强大的云端运算能力与DeepSeek先进的 AI技术,本文介绍高效、便捷且低成本的设计一个自己的个人网页。你将了解到如何轻松绕过常见的技术阻碍,在腾讯云HAI平台上快速部署DeepSeek模型,仅需简单几步,就能获取一个包含个人简介、技能特长、项目经历及联系方式等核心板块的响应式网页。 目录 一、DeepSeek模型部署在腾讯云HAI 二、设计个人网页 一、DeepSeek模型部署在腾讯云HAI 把 DeepSeek 模型部署于腾讯云 HAI,用户便能避开官网访问限制,直接依托腾讯云 HAI 的超强算力运行 DeepSeek-R1 等模型。这一举措不仅降低了技术门槛,还缩短了部署时间,削减了成本。尤为关键的是,凭借 HAI 平台灵活且可扩展的特性,用户能够依据自身特定需求定制专属解决方案,进而更出色地适配特定业务场景,满足各类技术要求 。 点击访问腾讯云HAI控制台地址: 算力管理 - 高性能应用服务 - 控制台 腾讯云高性能应用服务HAI已支持DeepSeek-R1模型预装环境和CPU算力,只需简单的几步就能调用DeepSeek - R1

By Ne0inhk
AI革命先锋:DeepSeek与蓝耘通义万相2.1的无缝融合引领行业智能化变革

AI革命先锋:DeepSeek与蓝耘通义万相2.1的无缝融合引领行业智能化变革

云边有个稻草人-ZEEKLOG博客 目录 引言 一、什么是DeepSeek? 1.1 DeepSeek平台概述 1.2 DeepSeek的核心功能与技术 二、蓝耘通义万相2.1概述 2.1 蓝耘科技简介 2.2 蓝耘通义万相2.1的功能与优势 1. 全链条智能化解决方案 2. 强大的数据处理能力 3. 高效的模型训练与优化 4. 自动化推理与部署 5. 行业专用解决方案 三、蓝耘通义万相2.1与DeepSeek的对比分析 3.1 核心区别 3.2 结合使用的优势 四、蓝耘注册流程 五、DeepSeek与蓝耘通义万相2.1的集成应用 5.1 集成应用场景 1. 智能医疗诊断

By Ne0inhk