最强开源多模态大模型它来啦——一文详解Qwen3.5核心特性

最强开源多模态大模型它来啦——一文详解Qwen3.5核心特性

前言

各位小伙伴新年好!新的一年祝大家龙马精神、阖家幸福、身体健康、事业进步!2025 年 DeepSeek 发布的 DeepSeek-R1 模型震惊全球,此后国内各大厂商充分发挥“能征善战”的拼劲,纷纷选择重大节日推出新品。今年除夕夜,阿里 Qwen 团队再次放出大招——Qwen3.5 模型正式开源,为国产大模型阵营再添一员猛将。

在这里插入图片描述

Qwen3.5 是目前全球最强的原生多模态开源大模型,不仅支持图片和视频的多模态输入,在对话、推理、编程、Agent 构建等方面也样样精通。其综合能力已达到 GPT-5.2、Gemini 3.0 Pro 的平均水平,推理能力尤为突出。例如那道曾让无数模型“翻车”的逻辑题——“50 米距离该走路还是开车去洗车”,Qwen3.5 也能轻松作答。

在这里插入图片描述

在 Vibe Coding 方面,凭借国内最强开源多模态模型的实力,Qwen3.5 可借助 Remotion Skills 一键生成视频;在 Agentic Coding 方面,其强悍的 Agent 性能即使用户使用最简略的需求描述,它也能自动调用各类工具,完成复杂应用开发。视觉推理能力相较 Qwen3-VL 大幅提升,连“鲨鱼骑马 = 沙琪玛”这种梗图都能精准识别。

在这里插入图片描述

更令人惊艳的是,Qwen3.5 能够将视觉与代码能力结合,一步到位将视频内容“转译”为一个可交互的网页。可以说,Qwen3.5 的发布不仅填补了国内多模态开源大模型的空白,也为未来多模态 Agent 的开发奠定了坚实基础。本文笔者将对 Qwen3.5 的核心特性和性能进行详细解读,带大家一探究竟!

在这里插入图片描述

一、Qwen3.5-397B-A17B 核心特性

1.1 预训练:能力、效率与通用性的全面升级

Qwen3.5 在预训练阶段从三个维度进行了深度优化:

  • 能力(Power) :在更大规模的视觉-文本语料上训练,并加强中英文、多语言、STEM 与推理数据的比重,采用更严格的过滤策略。最终,Qwen3.5-397B-A17B 与参数量超过 1T 的 Qwen3-Max-Base 表现相当,实现了跨代持平。
  • 效率(Efficiency) :基于 Qwen3-Next 架构,引入更高稀疏度的 MoE、Gated DeltaNet + Gated Attention 混合注意力机制,配合稳定性优化与多 token 预测。在 32k/256k 上下文长度下,Qwen3.5-397B-A17B 的解码吞吐量分别达到 Qwen3-Max 的 8.6 倍/19.0 倍,以及 Qwen3-235B-A22B 的 3.5 倍/7.2 倍,性能不变但效率大幅提升。
  • 通用性(Versatility) :通过早期文本-视觉融合与扩展的视觉/STEM/视频数据,实现了原生多模态能力,在相近规模下显著优于 Qwen3-VL。多语言支持从 119 种增至 201 种语言/方言;词表从 15 万扩展至 25 万,在多数语言上带来了约 10%~60% 的编码/解码效率提升。
在这里插入图片描述

1.2 异构基础设施:高效训练与强化学习的系统支撑

Qwen3.5 通过异构基础设施设计,实现了高效的原生多模态训练:

  • 解耦并行策略:针对视觉与语言组件采用不同的并行策略,避免统一方案带来的低效,实现跨模块计算重叠。在混合文本-图像-视频数据上,训练吞吐量相比纯文本基线几乎无损(接近 100%)。
  • 原生 FP8 流水线:对激活、MoE 路由与 GEMM 运算采用低精度 FP8,同时通过运行时监控在敏感层保持 BF16,从而降低约 50% 的激活显存占用,并获得超过 10% 的加速。该设计稳定支持了数万亿 token 的训练扩展。
  • 可扩展异步强化学习框架:为持续释放强化学习的潜力,构建了训推分离的异步强化学习框架,全面覆盖文本、多模态及多轮交互场景。该框架通过动态负载均衡、细粒度故障恢复,以及 FP8 训推、Rollout 路由回放、投机采样、多轮 Rollout 锁定等技术,实现了 3×–5× 的端到端加速,同时显著提升了训练曲线的稳定性和性能上限。框架原生支持百万级规模的智能体工作流与环境交互,为模型泛化能力的增强提供了坚实基础。
在这里插入图片描述

二、Qwen3.5-397B-A17B 性能详解

除夕夜开源的 Qwen3.5-397B-A17B 是 Qwen3.5 系列的首款模型。未来,Qwen3.5 还将陆续开源一系列小尺寸模型,同时保留 Qwen3.5-Max 的商业旗舰地位(该模型不会开源)。

2.1 模型架构与部署

  • 参数规模:模型拥有近 4000 亿总参数,采用极致稀疏 MoE 架构,每次推理仅激活 170 亿参数,大幅降低计算开销。
  • 技术创新:引入注意力门控机制(该技术获 2025 年 NeurIPS 最佳论文奖),实现了降本增效。与上一代商业旗舰 Qwen3-Max-Thinking(近 1T 参数)相比,Qwen3.5-397B-A17B 在性能超越的同时,部署显存占用降低 60%,最大推理吞吐量提升至原来的 19 倍。

硬件需求:尽管极致稀疏,但完整运行仍需至少 8 卡 A100(80G)集群;不过 17B 的激活参数使得实际推理效率极高。

在这里插入图片描述

2.2 推理模式与上下文

  • 混合推理模型:Qwen3.5 默认进行推理,与 Qwen3 不同的是,它不支持通过 <no_thinking> 前缀取消推理,只能通过修改内置提示词模板(通常位于 tokenizer_config.json 中)切换至 Chat 模式(内置提示词模板通常在大模型tokenizer_config.json文件中, 大家不熟悉的可以看笔者文章大模型训练全流程实战指南基础篇(二)——大模型文件结构解读与原理解析)。
  • 超长上下文:默认上下文长度为 256K,通过配置最多可扩展至 1M,相当于可一次性处理约 2 小时的视频内容。

2.3 性能对比与亮点

  • 全能型表现:Qwen3.5-397B-A17B 是目前国最强的一款全能型开源大模型,对话、编程、视觉识别、视觉理解、Agent 搭建等能力均已追平 GPT-5.2、Gemini 3.0 Pro 和 Claude Opus4.5。在编程专项上,与最新的 GPT-5.3-CodeX、Claude Opus4.6 相比仍有约 10% 的差距,但依然是国内最佳。
  • 原生多模态优势:文本、图像、视频在统一语义空间处理,对图文混排的 PDF 等文档可直接识别与检索,无需传统的多模态 RAG 流程。视觉推理能力极强,有博主实验证明 Qwen3.5 能高精度识别复杂的 Agent 项目架构图,并准确分析功能、关联和内在逻辑,甚至可以借助其强大的编程能力复刻相同架构的 Agent——类似 Claude 的视觉编程魅力,国人终于也能体验到了!
在这里插入图片描述

2.4 开源与 API

  • 模型下载:Qwen3.5-397B-A17B 已全面开源,可在魔搭社区(ModelScope)或 Hugging Face 下载模型权重。
  • API 服务:阿里百炼平台同步上线了模型 API,注意区分两个版本:
    • Qwen3.5(开源模型) :原始开源模型版本。
    • Qwen3.5-Plus:开源模型搭配基础工具(如网络搜索)后的通用 Agent,并非纯模型。
  • 定价:API 定价极低,输入百万 tokens 仅 0.8 元,输出百万 tokens 仅 4.8 元,性价比是同性能 Gemini 3.0 Pro 的 1/18,真正“拉满”性价比。
在这里插入图片描述

三、总结

Qwen3.5-397B-A17B 的发布,为 2026 年春节的国产大模型赛道打响了头炮。与此同时,万众期待的 DeepSeek-V4 也即将来袭,这个春节可谓“神仙打架”。正是这些公司雄厚的技术积淀,撑起了我国大模型在世界舞台上的领先地位。为国产大模型公司点赞,也祝愿新的一年里,我国大模型产业继续马到成功

在这里插入图片描述

Read more

Claude Code Security:AI猎杀代码漏洞时代正式开启

Claude Code Security:AI猎杀代码漏洞时代正式开启

文章目录 * 1、前言 * 2、快速上手:Claude Code Security 怎么用 * 2.1 访问入口与适用范围 * 2.2 两种使用方式 * 2.2.1 方式一:终端命令(所有付费用户) * 2.2.2 方式二:GitHub Actions 集成(自动化 PR 扫描) * 2.3 Dashboard 核心功能一览(企业版) * 3、背景:代码安全为何成了 AI 的下一个战场 * 3.1 软件漏洞:永无止境的噩梦 * 3.2 传统 SAST 工具的三大痛点

By Ne0inhk

[AI提效-30]- 2026年国内OPC社区全景地图

🏙️ 2026年国内OPC社区全景地图 一、📍 核心城市OPC生态社区 1. 上海:OPC发源地与政策高地 上海是国内OPC概念最成熟、政策支持力度最大的城市。 社区/园区名称地点特色亮点加入方式上海临港“超级个体288”基地浦东新区临港新片区零租金创业空间、算力补贴、AI工具免费用 关注“临港新片区”公众号 → 搜索“超级个体” → 在线申请 张江AI小镇 OPC孵化中心浦东新区张江高科 聚焦AI应用开发、 大模型生态对接 访问张江高科官网 → 创业服务 → 提交BP NVIDIA AI Tech Center (上海)徐汇区/浦东新区国际技术资源、GPU算力支持、开发者社群 注册NVIDIA开发者账号 → 申请加入本地社群 微软加速器 (上海)闵行区/徐汇区面向早期初创企业、含一人公司官网提交申请 → 筛选面试 💡 上海特别提示: 临港新片区对“超级个体”有专项认定,通过认定后可享受3年免租及税收返还。 2.

By Ne0inhk
你的 AI 助手不想“活在云端“:CoPaw 项目评估

你的 AI 助手不想“活在云端“:CoPaw 项目评估

当大多数 AI 助手产品都在争夺云端托管用户时,CoPaw 选择了一条相反的路:把 Agent 部署在你自己的机器上,接入你熟悉的钉钉、飞书和 QQ,用 Markdown 文件定义打工技能。 这篇文章写给那些想用 AI 做真正"私活"、又不想把数据和控制权交出去的工程师和架构师。 一、所有 AI 助手都有一个共同前提——你必须信任他们的云 打开市面上任何一款"个人 AI 助手"产品,你会发现它们有一个隐含的使用协议:你的对话在他们的服务器上处理,你的文件提交给他们的存储,你的 API Key 存在他们的数据库里。 这个前提对大多数工具类场景没什么问题。但当你需要 AI 助手帮你摘读邮件、整理本地文件、定时跑脚本、甚至控制桌面——这时"信任云端&

By Ne0inhk
打造你的家庭 AI 助手(四):单 OpenClaw 配置多 Agent、多 QQ、飞书机器人

打造你的家庭 AI 助手(四):单 OpenClaw 配置多 Agent、多 QQ、飞书机器人

打造你的家庭 AI 助手(四):单 OpenClaw 配置多 Agent、多 QQ、飞书机器人 引言 OpenClaw 是一个强大的智能体(Agent)编排框架,它通过统一的架构让开发者可以轻松管理多个聊天机器人,并接入不同的即时通讯平台。在实际应用中,我们往往需要同时运行多个 QQ 机器人(例如个人助手、工作助手),甚至希望同一个智能体既能处理 QQ 消息,也能响应飞书消息。 本文将详细介绍如何在一个 OpenClaw 实例中配置多通道(QQ、飞书)、多 Agent 以及多 QQ 机器人账号,实现资源的高效利用和灵活的消息路由。特别地,我们将阐明飞书通道与 QQ 通道在绑定规则上的差异,避免常见的配置错误。 核心概念回顾 * Agent(智能体):拥有独立人格、记忆和技能的对话单元。每个

By Ne0inhk