引言
近期阿里发布的 Qwen3 系列模型在开源界表现亮眼,其增强的 Agent 和代码能力,以及对 MCP(Model Context Protocol)的支持,使其成为构建 AI 应用的主流基座。如何利用 Qwen3 快速开发支持 MCP 的智能体?本文将带你通过官方推荐的 Qwen-Agent 框架,完成从环境搭建到 MCP 工具接入的完整流程。
一、准备 API Key
我们需要通过阿里云百炼大模型服务平台调用 Qwen3。具体步骤如下:
- 登录 阿里云百炼控制台,确保已开通模型服务。
- 进入 API-KEY 管理 页面,创建并查看您的 API Key。这是请求模型服务的凭证。
二、Qwen-Agent 基础入门
Qwen-Agent 是通义团队推出的开源 Agent 开发框架,提供从原子组件到高级智能体的完整工具链。它支持强大的工具调用(Function Calling)、规划记忆以及长文本处理。
1. 环境安装
建议使用 Anaconda 创建虚拟环境并安装依赖:
conda create -n qwen_agent python=3.12
conda activate qwen_agent
pip install -U "qwen-agent[rag,code_interpreter,gui,mcp]"
pip install uv
2. 构建多轮对话机器人
通过 Assistant 组件可以快速实现工具调用和 Agent 编排。以下是一个基础的多轮对话示例:
from qwen_agent.agents import Assistant
from qwen_agent.utils.output_beautify import typewriter_print
# 配置模型服务
llm_cfg = {
'model': 'qwen3-235b-a22b',
'model_server': 'dashscope',
'api_key': '你的 api-key',
'generate_cfg': {'top_p': 0.8}
}
# 创建智能体对象
bot = Assistant(llm=llm_cfg, system_message='你是一位乐于助人的小助理', name='智能助理')
# 构建多轮对话
messages = []
:
query = ()
query == :
:
messages.append({: , : query})
response_plain_text =
()
response bot.run(messages=messages):
response_plain_text = typewriter_print(response, response_plain_text)
messages.extend(response)


