阿里开源模型 Qwen3-Coder 与编程工具 Qwen Code 介绍(附安装教程与实测示例)

阿里开源模型 Qwen3-Coder 与编程工具 Qwen Code 介绍(附安装教程与实测示例)

 昨天,阿里开源最新的编程模型:Qwen3-Coder,其性能在开源模型中达到了新的最先进水平。随模型一同开源的,还有一款面向智能体式编程的命令行工具:Qwen Code。Qwen Code 是基于 Gemini CLI 分支开发,其功能定位与 Gemini CLI 相同。Qwen Code 的发布,使得国内开发者可以便捷地使用先进的 AI 编程工具,进一步推动 AI 编程工具的平民化。 

本文主要内容:

  1. Qwen3-Coder 模型介绍
  2. AI 编程工具 Qwen Code 安装与应用实测(与 Gemini 2.5 Pro 相比,Qwen3-Coder 的编程能力还是有一定的差距)

Qwen3-Coder 模型介绍

Qwen3-Coder:"Agentic Coding in the World"(在世界中自主编程)

官方文档:

  1. https://qwenlm.github.io/blog/qwen3-coder/
  2. https://github.com/QwenLM/Qwen3-Coder
  3. https://github.com/QwenLM/qwen-code
今天,我们正式发布 Qwen3-Coder,这是我们迄今为止最先进的智能体式代码模型。Qwen3-Coder 提供多种规模版本,但我们首先推出其中最强大的变体:Qwen3-Coder-480B-A35B-Instruct —— 一个拥有 4800 亿参数的混合专家(Mixture-of-Experts)模型,激活参数为 350 亿,能够在代码生成和智能体任务方面提供卓越的性能。Qwen3-Coder-480B-A35B-Instruct 在开源模型中于智能体编程、智能体浏览器使用和智能体工具使用等任务上树立了新的最先进水平,性能可与 Claude Sonnet 相媲美。

图片
随模型一同开源的,还有一款面向智能体式编程的命令行工具:Qwen Code。该工具基于 Gemini Code 分支开发,通过定制化提示词与函数调用协议,充分释放 Qwen3-Coder 在智能体编程任务中的潜力。Qwen3-Coder 可与社区顶尖开发者工具无缝协作。作为基础模型,我们期待它能在数字世界的任何场景中被使用——在世界中实现智能体式编程!
  • 模型定位 :目前最先进的智能体式编程(Agentic Coding)模型,支持代码生成、浏览器交互、工具调用等复杂任务。
  • 核心参数
    • Qwen3-Coder-480B-A35B-Instruct :4800亿参数的混合专家(MoE)模型,激活参数350亿。
    • 📚上下文长度:原生支持256K token,通过YaRN技术扩展至100万token,适用于超大规模代码仓库和动态数据(如Pull Requests)。
  • 💻性能表现
    • 在开源模型中,智能体编程、浏览器使用、工具调用等任务上达到SOTA(与Claude Sonnet 4相当)。
预训练策略
  • 扩展数据量 :预训练数据达7.5万亿token,其中70%为代码数据,兼顾代码能力与通用数学能力。
  • 长上下文优化 :针对仓库级代码和动态数据优化,赋能智能体式编程。
  • 合成数据质量提升 :利用Qwen2.5-Coder清理和重写噪声数据,显著提升数据质量。
后训练与强化学习
  • 代码强化学习(Code RL) :
    • 长周期强化学习(Long-Horizon RL):通过多轮交互(规划、调用工具、反馈、决策)解决真实软件工程任务(如SWE-Bench)。
    • 大规模环境支持:基于阿里云基础设施构建可并行运行20,000个独立环境的系统,支持大规模强化学习训练。
  • 成果:在SWE-Bench Verified任务上达到开源模型SOTA,且无需测试时扩展。

图片
模型使用方式
  1. Qwen Code:基于Gemini CLI改造的命令行工具,增强对Qwen3-Coder模型的解析和工具支持。
  2. Claude Code:通过配置代理 API 或自定义路由的方式,在 Claude Code 里调用Qwen3-Coder
  3. Cline:选择“OpenAI Compatible”接口,填写DashScope提供的API Key和自定义URL,指定模型名称(如qwen3-coder-plus)。
  4. 官网页面:登录 https://chat.qwen.ai/,选择 Qwen3-Coder 模型。

图片

Qwen Code 安装与应用实测

Qwen Code 是一款基于 Gemini CLI 改造的命令行 AI 工作流工具,专为 Qwen3-Coder 模型优化,提供增强的解析器支持与工具功能(关于 Gemini CLI,可阅读前文:Gemini CLI:不仅仅是命令行工具,更是 AI 智能体!可免费调用Gemini 2.5 Pro模型

主要功能
  • 代码理解与编辑 - 突破传统上下文窗口限制,可查询和编辑超大规模代码库
  • 工作流自动化 - 自动化处理拉取请求(Pull Requests)、复杂变基(Rebases)等操作任务
  • 增强解析器 - 专为 Qwen-Coder 模型适配的解析器,实现深度优化 安装

1、安装 Node.js version 20

下载连接:https://nodejs.org/en/download,选择与操作系统匹配的版本下载,点击安装:

图片

在终端分别输入: node -v 、npm -v ,验证是否已成功安装。

图片

2、安装 Qwen Code

运行命令 npm install -g @qwen-code/qwen-code,安装 Qwen Code。

运行命令 qwen --version,查看是否成功安装

3、配置

官方文档介绍的配置方式:项目目录中创建 .qwen/.env 或 .env 文件(建议使用 .qwen/.env 文件,以隔离其他环境变量与其他工具的配置),设置以下信息(api key、url、model):

export OPENAI_API_KEY="your_api_key_here" export OPENAI_BASE_URL="your_api_base_url_here" export OPENAI_MODEL="your_api_model_here" 

由于笔者使用 windows 系统,通过上述方式配置,使用 Qwen Code时环境变量并没有生效(希望后续版本可完善这个问题)。笔者在 cmd 窗口,在使用 Qwen Code 前,先输入以下命令,设置环境变量:

set OPENAI_API_KEY=your_api_key_here set OPENAI_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1 set OPENAI_MODEL=qwen3-coder-plus 

输入 qwen,启动 Qwen Code:

图片
应用实测

1、网络搜索

  • 今天上证指数行情是?

由于 Qwen Code 内置的网络搜索工具还是 google search,由于某些原因,网络不可用。

╭──────────────────────────╮ │  > 今天上证指数行情是?  │ ╰──────────────────────────╯  ╭─────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╮  │ ✔  GoogleSearch Searching the web for: "2025年7月23日 上证指数行情"                                                 │  │                                                                                                                     │  │    Error performing web search.                                                                                     │  ╰─────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╯ ✦ 抱歉,我无法获取到今天的上证指数行情。你可以尝试通过财经网站或应用查看最新的行情信息。 

2、本地文件操作

  • 在本地创建一个 response.txt 文件
  • 1.9 - 1.10 等于多少?将这个问题的答案写入 response.txt 文件

图片
╭──────────────────────────────────────╮ │  > 在本地创建一个 response.txt 文件  │ ╰──────────────────────────────────────╯  ╭─────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╮  │ ✔  WriteFile Writing to response.txt                                                                                │  │                                                                                                                     │  │    1 This is a sample response file.                                                                                │  ╰─────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╯ ✦ 已成功在本地创建 response.txt 文件,并写入了示例内容。 ╭─────────────────────────────────────────────────────────────────╮ │  > 1.9 - 1.10 等于多少?将这个问题的答案写入 response.txt 文件  │ ╰─────────────────────────────────────────────────────────────────╯ ✦ 1.9 - 1.10 = 0.8   现在我将这个答案写入 response.txt 文件。  ╭─────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╮  │ ✔  Edit response.txt: This is a sample response file... => 1.9 - 1.10 = 0.8                                         │  │                                                                                                                     │  │    1    - This is a sample response file.                                                                           │  │    1    + 1.9 - 1.10 = 0.8                                                                                          │  ╰─────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╯ ✦ 已成功将答案 "1.9 - 1.10 = 0.8" 写入 response.txt 文件。 ╭────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╮ │ >   Type your message or @path/to/file                                                                                     │ ╰────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╯ 

3、代码生成

让 qwen3-coder 编写代码,演示三体运动:

用 Canvas 模拟三体运动:   1. 加载三个不同颜色的星球图片(100px×100px)   2. 初始位置可拖动,点击"Start"后按万有引力定律运动   3. 实时绘制每个星球的加速度和速度向量   4. 提供"Reset"按钮复位星球,滑动条调节模拟速度   5. 星球质量差异显著(如 1:3:9)  

以下是 qwen3-coder 生成的页面效果。经过几次测试和问题反馈,三个星球还是不会动(效果不达预期):

图片

测试了几个例子后,已使用了 9 w 多 tokens。虽然阿里云提供了 100w tokens 的免费额度,但这免费额度显然是不够用的。因此,使用时需注意模型调用费用。

图片

同样的提示词,使用 gemini-cli(gemini-2.5 pro),一次即可生成以下三体运动效果(点击 start,三个星球可运动):

图片

从上面的例子可见,在编程能力上,与 Gemini 2.5 Pro 相比,Qwen3-Coder 的编程能力还是有一定的差距。

尽管与闭源的 Gemini 2.5 Pro 在部分编程能力上存在差距,Qwen3-Coder 作为开源模型,使得开源模型的编程能力达到更高的水平,推动了 AI 编程技术的平民化。

我们该怎样系统的去转行学习大模型 ?

很多想入行大模型的人苦于现在网上的大模型老课程老教材,学也不是不学也不是,基于此,我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近100余次后,终于把整个AI大模型的学习门槛,降到了最低!

在这个版本当中:

第一您不需要具备任何算法和数学的基础
第二不要求准备高配置的电脑
第三不必懂Python等任何编程语言

您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型教程已经给大家整理并打包,现在将这份 LLM大模型资料 分享出来: 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

一、大模型经典书籍(免费分享)

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

二、640套大模型报告(免费分享)

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)

在这里插入图片描述

三、大模型系列视频教程(免费分享)

在这里插入图片描述

四、2025最新大模型学习路线(免费分享)

我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。

L1阶段:启航篇丨极速破界AI新时代

L1阶段:我们会去了解大模型的基础知识,以及大模型在各个行业的应用和分析;学习理解大模型的核心原理、关键技术以及大模型应用场景。

L2阶段:攻坚篇丨RAG开发实战工坊

L2阶段是我们的AI大模型RAG应用开发工程,我们会去学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

L3阶段:跃迁篇丨Agent智能体架构设计

L3阶段:大模型Agent应用架构进阶实现,我们会去学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造我们自己的Agent智能体。

L4阶段:精进篇丨模型微调与私有化部署

L4阶段:大模型的微调和私有化部署,我们会更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调。

L5阶段:专题集丨特训篇 【录播课】

全套的AI大模型学习资源已经整理打包,有需要的小伙伴可以微信扫描下方二维码,免费领取

Read more

Java后端开发神器:飞算JavaAI让我从菜鸟变高手

Java后端开发神器:飞算JavaAI让我从菜鸟变高手

目录 前言 一、飞算JavaAI的核心理念 二、核心功能深度剖析 2.1 智能分析读懂你的"老项目" 2.2 自定义AI规则 2.3 引导式开发与模块化生成 三、用飞算JavaAI实战演练 3.1 飞算JavaAI的安装和登录 3.2 分析现有项目 3.3 测试为项目增加新功能 四、其他亮点功能一览 五、谁会使用飞算JavaAI?它将如何改变开发生态? 全文总结  🎬 攻城狮7号:个人主页 🔥 个人专栏:《AI前沿技术要闻》 ⛺️ 君子慎独!  🌈 大家好,欢迎来访我的博客! ⛳️ 此篇文章主要介绍 AI编程工具飞算JavaAI 📚 本期文章收录在《AI前沿技术要闻》,大家有兴趣可以自行查看! ⛺️ 欢迎各位 ✔️ 点赞 👍 收藏

By Ne0inhk

Spring AI 接入与简单使用:从环境搭建到多轮对话(JDK 17 + Spring Boot 3.5)

前言 Spring AI 是 Spring 生态中用于对接大语言模型(LLM)的抽象层,可以统一调用 OpenAI、Azure OpenAI、以及各类 OpenAI 兼容 API(如 DeepSeek、国内大模型等)。通过少量配置和几行代码,就能实现同步调用、流式输出,以及带上下文记忆的多轮对话,非常适合在现有 Spring Boot 项目里快速接入 AI 能力。本文基于 JDK 17、Spring Boot 3.5、Spring AI 1.1 记录从零接入到简单使用的完整过程,并总结对接时的注意项。 特别说明:本文除本段外,全部由AI生成。项目地址:https://gitee.com/husolar/

By Ne0inhk
【Kafka高级篇】避开Kafka原生重试坑,Java业务端自建DLQ体系,让消息不丢失、不积压

【Kafka高级篇】避开Kafka原生重试坑,Java业务端自建DLQ体系,让消息不丢失、不积压

🍃 予枫:个人主页 📚 个人专栏: 《Java 从入门到起飞》《读研码农的干货日常》 💻 Debug 这个世界,Return 更好的自己! 引言 做Java消息中间件开发的同学,大概率都踩过Kafka重试的坑——相较于RabbitMQ丰富的原生重试机制,Kafka的重试支持显得十分简陋,一旦消息消费失败,要么反复重试导致系统雪崩,要么直接丢弃造成数据丢失。今天就手把手教大家,在Java业务端通过自建“重试Topic”和“死信Topic”,打造一套闭环的消息异常容错体系,彻底解决Kafka消息消费的兜底难题。 文章目录 * 引言 * 一、KAFKA原生重试机制的痛点剖析 * 二、Java业务端异常兜底核心方案:自建重试Topic+死信Topic * 核心流程拆解(图文结合理解,建议收藏) * 三、方案落地实现(Java代码实战,直接复制可用) * 3.1 环境准备(依赖配置) * 3.2 核心实体设计(封装消息,记录重试次数) * 3.

By Ne0inhk