阿里通义千问正式发布 Qwen3.5 系列模型,同步推出 Qwen3.5-397B-A17B 开源旗舰版与 Qwen3.5-Plus 版本。作为新一代原生多模态基座,该系列刷新了开源模型的性能上限,以技术架构与商用友好协议向闭源旗舰发起挑战。
一、核心定位:全场景覆盖
Qwen3.5 并非单一模型,而是一套覆盖端侧到云端的完整基座体系,精准匹配个人、开发者、企业的全维度需求。
本次发布的核心版本定位清晰:
- Qwen3.5-397B-A17B 开源旗舰版:采用稀疏混合(MoE)架构,总参数 3970 亿,推理时激活 170 亿参数(占比不足 5%),性能超过万亿参数的 Qwen3-Max 模型。
- Qwen3.5-Plus 版本:定位为系列最新大语言模型,性能媲美 Gemini 3 Pro,支持文本和多模态任务。
此外,阿里官方透露后续将继续开源不同尺寸、不同功能的 Qwen3.5 系列模型,进一步覆盖端侧部署需求。Qwen3.5 采用 Apache 2.0 开源协议,商用、二次开发、改名发布均无额外限制。
二、技术破局:三大创新
Qwen3.5 的亮眼表现源于底层架构的革命性创新。
- 混合注意力机制:将 75% 门控 DeltaNet(线性注意力)与 25% 标准注意力结合,动态分配注意力资源。Qwen3.5-397B-A17B 上下文长度为 256K,Qwen3.5-Plus 可拓展至 1M(100 万个 Token),可直接处理长达两小时的视频内容。256K 上下文吞吐量最高提升 19 倍,32K 常用场景吞吐量提升 8.6 倍。
- 原生多模态设计:图文能力采用底层融合设计而非后期拼接,原生支持任意分辨率图像输入,图文理解、图表解析、文档识别能力直逼闭源顶级水平。
- 极致稀疏 MoE 架构:显存占用降低 60%,推理成本直接腰斩。Qwen3.5-Plus 的 API 价格每百万 Token 低至 0.8 元,仅为 Gemini 3 Pro 的 1/18。
在中文理解、逻辑推理、代码生成三大核心能力上,Qwen3.5 表现优异。C-Eval 得分高达 88.9%,GSM8K 推理准确率、HumanEval 编程得分均逼近 90%。
三、硬核对标:与闭源旗舰对比
结合官方披露及实测数据,将 Qwen3.5-397B-A17B 与 GPT-4o、Claude 3 Opus、Gemini 3 Pro 进行对标:
- 中文理解与母语表达:Qwen3.5 稳居第一,依托深度优化的中文语料库,语境贴合度远超所有闭源模型。
- 数学与逻辑推理:GPT-4o 在极端竞赛级推理中仍占小幅领先,但在日常业务、工程推理场景中,Qwen3.5 与闭源模型几乎无感知差距。
- 代码能力:GPT-4o 与 Claude 3 Opus 在复杂架构开发方面略优,但 Qwen3.5 足以满足普通开发、脚本编写等需求。
- 多模态图文理解:Qwen3.5 与 Gemini 3 Pro 持平,具备强大的原生多模态能力,在 MathVision、RealWorldQA 等多模态基准测评中斩获最优性能。
- 超长文本处理:Qwen3.5 系列已实现大幅突破,完全覆盖日常业务、长文档解析、视频内容处理等绝大多数场景。
- 成本、隐私、部署:支持本地私有化部署,数据不出内网杜绝隐私泄露,商用零成本,性价比颠覆。
严格来说,闭源模型仅在极端竞赛推理、复杂长链 Agent 规划等小众极限场景保留微弱优势,而在 95% 的真实业务场景中,Qwen3.5 已经可以完美平替闭源旗舰。
四、行业意义
Qwen3.5 的发布是中国开源大模型发展的重要分水岭。它打破了高性能必闭源的行业认知,证明国产开源模型既能做到顶级性能,又能实现普惠成本。截至目前,阿里已开源近 400 个千问模型,千问全球下载量突破 10 亿次,单月下载量是 DeepSeek、Meta 等 2 到 8 名总和,成为全球首个衍生模型超 20 万的开源大模型。目前千问已服务全球超 100 万企业用户。
五、总结
Qwen3.5 彻底击穿了闭源的性能垄断,破解了大型模型的效率 - 精度悖论,让开源模型第一次具备了与闭源旗舰正面抗衡的实力。对于绝大多数用户、开发者与企业而言,Qwen3.5 已经是当下最优选择——足够强、足够便宜、足够安全,无需再依赖闭源 API 的高溢价服务。

