最强开源多模态大模型它来啦——一文详解Qwen3.5核心特性

最强开源多模态大模型它来啦——一文详解Qwen3.5核心特性

前言

各位小伙伴新年好!新的一年祝大家龙马精神、阖家幸福、身体健康、事业进步!2025 年 DeepSeek 发布的 DeepSeek-R1 模型震惊全球,此后国内各大厂商充分发挥“能征善战”的拼劲,纷纷选择重大节日推出新品。今年除夕夜,阿里 Qwen 团队再次放出大招——Qwen3.5 模型正式开源,为国产大模型阵营再添一员猛将。

在这里插入图片描述

Qwen3.5 是目前全球最强的原生多模态开源大模型,不仅支持图片和视频的多模态输入,在对话、推理、编程、Agent 构建等方面也样样精通。其综合能力已达到 GPT-5.2、Gemini 3.0 Pro 的平均水平,推理能力尤为突出。例如那道曾让无数模型“翻车”的逻辑题——“50 米距离该走路还是开车去洗车”,Qwen3.5 也能轻松作答。

在这里插入图片描述

在 Vibe Coding 方面,凭借国内最强开源多模态模型的实力,Qwen3.5 可借助 Remotion Skills 一键生成视频;在 Agentic Coding 方面,其强悍的 Agent 性能即使用户使用最简略的需求描述,它也能自动调用各类工具,完成复杂应用开发。视觉推理能力相较 Qwen3-VL 大幅提升,连“鲨鱼骑马 = 沙琪玛”这种梗图都能精准识别。

在这里插入图片描述

更令人惊艳的是,Qwen3.5 能够将视觉与代码能力结合,一步到位将视频内容“转译”为一个可交互的网页。可以说,Qwen3.5 的发布不仅填补了国内多模态开源大模型的空白,也为未来多模态 Agent 的开发奠定了坚实基础。本文笔者将对 Qwen3.5 的核心特性和性能进行详细解读,带大家一探究竟!

在这里插入图片描述

一、Qwen3.5-397B-A17B 核心特性

1.1 预训练:能力、效率与通用性的全面升级

Qwen3.5 在预训练阶段从三个维度进行了深度优化:

  • 能力(Power) :在更大规模的视觉-文本语料上训练,并加强中英文、多语言、STEM 与推理数据的比重,采用更严格的过滤策略。最终,Qwen3.5-397B-A17B 与参数量超过 1T 的 Qwen3-Max-Base 表现相当,实现了跨代持平。
  • 效率(Efficiency) :基于 Qwen3-Next 架构,引入更高稀疏度的 MoE、Gated DeltaNet + Gated Attention 混合注意力机制,配合稳定性优化与多 token 预测。在 32k/256k 上下文长度下,Qwen3.5-397B-A17B 的解码吞吐量分别达到 Qwen3-Max 的 8.6 倍/19.0 倍,以及 Qwen3-235B-A22B 的 3.5 倍/7.2 倍,性能不变但效率大幅提升。
  • 通用性(Versatility) :通过早期文本-视觉融合与扩展的视觉/STEM/视频数据,实现了原生多模态能力,在相近规模下显著优于 Qwen3-VL。多语言支持从 119 种增至 201 种语言/方言;词表从 15 万扩展至 25 万,在多数语言上带来了约 10%~60% 的编码/解码效率提升。
在这里插入图片描述

1.2 异构基础设施:高效训练与强化学习的系统支撑

Qwen3.5 通过异构基础设施设计,实现了高效的原生多模态训练:

  • 解耦并行策略:针对视觉与语言组件采用不同的并行策略,避免统一方案带来的低效,实现跨模块计算重叠。在混合文本-图像-视频数据上,训练吞吐量相比纯文本基线几乎无损(接近 100%)。
  • 原生 FP8 流水线:对激活、MoE 路由与 GEMM 运算采用低精度 FP8,同时通过运行时监控在敏感层保持 BF16,从而降低约 50% 的激活显存占用,并获得超过 10% 的加速。该设计稳定支持了数万亿 token 的训练扩展。
  • 可扩展异步强化学习框架:为持续释放强化学习的潜力,构建了训推分离的异步强化学习框架,全面覆盖文本、多模态及多轮交互场景。该框架通过动态负载均衡、细粒度故障恢复,以及 FP8 训推、Rollout 路由回放、投机采样、多轮 Rollout 锁定等技术,实现了 3×–5× 的端到端加速,同时显著提升了训练曲线的稳定性和性能上限。框架原生支持百万级规模的智能体工作流与环境交互,为模型泛化能力的增强提供了坚实基础。
在这里插入图片描述

二、Qwen3.5-397B-A17B 性能详解

除夕夜开源的 Qwen3.5-397B-A17B 是 Qwen3.5 系列的首款模型。未来,Qwen3.5 还将陆续开源一系列小尺寸模型,同时保留 Qwen3.5-Max 的商业旗舰地位(该模型不会开源)。

2.1 模型架构与部署

  • 参数规模:模型拥有近 4000 亿总参数,采用极致稀疏 MoE 架构,每次推理仅激活 170 亿参数,大幅降低计算开销。
  • 技术创新:引入注意力门控机制(该技术获 2025 年 NeurIPS 最佳论文奖),实现了降本增效。与上一代商业旗舰 Qwen3-Max-Thinking(近 1T 参数)相比,Qwen3.5-397B-A17B 在性能超越的同时,部署显存占用降低 60%,最大推理吞吐量提升至原来的 19 倍。

硬件需求:尽管极致稀疏,但完整运行仍需至少 8 卡 A100(80G)集群;不过 17B 的激活参数使得实际推理效率极高。

在这里插入图片描述

2.2 推理模式与上下文

  • 混合推理模型:Qwen3.5 默认进行推理,与 Qwen3 不同的是,它不支持通过 <no_thinking> 前缀取消推理,只能通过修改内置提示词模板(通常位于 tokenizer_config.json 中)切换至 Chat 模式(内置提示词模板通常在大模型tokenizer_config.json文件中, 大家不熟悉的可以看笔者文章大模型训练全流程实战指南基础篇(二)——大模型文件结构解读与原理解析)。
  • 超长上下文:默认上下文长度为 256K,通过配置最多可扩展至 1M,相当于可一次性处理约 2 小时的视频内容。

2.3 性能对比与亮点

  • 全能型表现:Qwen3.5-397B-A17B 是目前国最强的一款全能型开源大模型,对话、编程、视觉识别、视觉理解、Agent 搭建等能力均已追平 GPT-5.2、Gemini 3.0 Pro 和 Claude Opus4.5。在编程专项上,与最新的 GPT-5.3-CodeX、Claude Opus4.6 相比仍有约 10% 的差距,但依然是国内最佳。
  • 原生多模态优势:文本、图像、视频在统一语义空间处理,对图文混排的 PDF 等文档可直接识别与检索,无需传统的多模态 RAG 流程。视觉推理能力极强,有博主实验证明 Qwen3.5 能高精度识别复杂的 Agent 项目架构图,并准确分析功能、关联和内在逻辑,甚至可以借助其强大的编程能力复刻相同架构的 Agent——类似 Claude 的视觉编程魅力,国人终于也能体验到了!
在这里插入图片描述

2.4 开源与 API

  • 模型下载:Qwen3.5-397B-A17B 已全面开源,可在魔搭社区(ModelScope)或 Hugging Face 下载模型权重。
  • API 服务:阿里百炼平台同步上线了模型 API,注意区分两个版本:
    • Qwen3.5(开源模型) :原始开源模型版本。
    • Qwen3.5-Plus:开源模型搭配基础工具(如网络搜索)后的通用 Agent,并非纯模型。
  • 定价:API 定价极低,输入百万 tokens 仅 0.8 元,输出百万 tokens 仅 4.8 元,性价比是同性能 Gemini 3.0 Pro 的 1/18,真正“拉满”性价比。
在这里插入图片描述

三、总结

Qwen3.5-397B-A17B 的发布,为 2026 年春节的国产大模型赛道打响了头炮。与此同时,万众期待的 DeepSeek-V4 也即将来袭,这个春节可谓“神仙打架”。正是这些公司雄厚的技术积淀,撑起了我国大模型在世界舞台上的领先地位。为国产大模型公司点赞,也祝愿新的一年里,我国大模型产业继续马到成功

在这里插入图片描述

Read more

安装 启动 使用 Neo4j的超详细教程

安装 启动 使用 Neo4j的超详细教程

最近在做一个基于知识图谱的智能生成项目。需要用到Neo4j图数据库。写这篇文章记录一下Neo4j的安装及其使用。 一.Neo4j的安装 1.首先安装JDK,配环境变量。(参照网上教程,很多) Neo4j是基于Java的图形数据库,运行Neo4j需要启动JVM进程,因此必须安装JAVA SE的JDK。从Oracle官方网站下载 Java SE JDK。我使用的版本是JDK1.8 2.官网上安装neo4j。 官方网址:https://neo4j.com/deployment-center/  在官网上下载对应版本。Neo4j应用程序有如下主要的目录结构: bin目录:用于存储Neo4j的可执行程序; conf目录:用于控制Neo4j启动的配置文件; data目录:用于存储核心数据库文件; plugins目录:用于存储Neo4j的插件; 3.配置环境变量 创建主目录环境变量NEO4J_HOME,并把主目录设置为变量值。复制具体的neo4j文件地址作为变量值。 配置文档存储在conf目录下,Neo4j通过配置文件neo4j.conf控制服务器的工作。默认情况下,不需

企业微信群机器人Webhook配置全攻略:从创建到发送消息的完整流程

企业微信群机器人Webhook配置全攻略:从创建到发送消息的完整流程 在数字化办公日益普及的今天,企业微信作为国内领先的企业级通讯工具,其群机器人功能为团队协作带来了极大的便利。本文将手把手教你如何从零开始配置企业微信群机器人Webhook,实现自动化消息推送,提升团队沟通效率。 1. 准备工作与环境配置 在开始创建机器人之前,需要确保满足以下基本条件: * 企业微信账号:拥有有效的企业微信管理员或成员账号 * 群聊条件:至少包含3名成员的群聊(这是创建机器人的最低人数要求) * 网络环境:能够正常访问企业微信服务器 提示:如果是企业管理员,建议先在"企业微信管理后台"确认机器人功能是否已对企业开放。某些企业可能出于安全考虑会限制此功能。 2. 创建群机器人 2.1 添加机器人到群聊 1. 打开企业微信客户端,进入目标群聊 2. 点击右上角的群菜单按钮(通常显示为"..."或"⋮") 3. 选择"添加群机器人"选项 4.

Flowise物联网融合:与智能家居设备联动的应用设想

Flowise物联网融合:与智能家居设备联动的应用设想 1. Flowise:让AI工作流变得像搭积木一样简单 Flowise 是一个真正把“AI平民化”落地的工具。它不像传统开发那样需要写几十行 LangChain 代码、配置向量库、调试提示词模板,而是把所有这些能力打包成一个个可拖拽的节点——就像小时候玩乐高,你不需要懂塑料怎么合成,只要知道哪块该拼在哪,就能搭出一座城堡。 它诞生于2023年,短短一年就收获了45.6k GitHub Stars,MIT协议开源,意味着你可以放心把它用在公司内部系统里,甚至嵌入到客户交付的产品中,完全不用担心授权问题。最打动人的不是它的技术多炫酷,而是它真的“不挑人”:产品经理能搭出知识库问答机器人,运营同学能配出自动抓取竞品文案的Agent,连刚学Python两周的实习生,也能在5分钟内跑通一个本地大模型的RAG流程。 它的核心逻辑很朴素:把LangChain里那些抽象概念——比如LLM调用、文档切分、向量检索、工具调用——变成画布上看得见、摸得着的方块。你拖一个“Ollama LLM”节点,再拖一个“Chroma Vector

OpenClaw配置Bot接入飞书机器人+Kimi2.5

OpenClaw配置Bot接入飞书机器人+Kimi2.5

上一篇文章写了Ubuntu_24.04下安装OpenClaw的过程,这篇文档记录一下接入飞书机器+Kimi2.5。 准备工作 飞书 创建飞书机器人 访问飞书开放平台:https://open.feishu.cn/app,点击创建应用: 填写应用名称和描述后就直接创建: 复制App ID 和 App Secret 创建成功后,在“凭证与基础信息”中找到 App ID 和 App Secret,把这2个信息复制记录下来,后面需要配置到openclaw中 配置权限 点击【权限管理】→【开通权限】 或使用【批量导入/导出权限】,选择导入,输入以下内容,如下图 点击【下一步,确认新增权限】即可开通所需要的权限。 配置事件与回调 说明:这一步的配置需要先讲AppId和AppSecret配置到openclaw成功之后再设置订阅方式,