本周 AI 要闻速览
- DeepSeek V4 下周发布:万亿参数原生多模态大模型,每 token 仅激活约 320 亿参数,上下文扩展至 100 万 token,与华为、寒武纪完成推理端深度适配。
- DualPath 框架发布:DeepSeek 联合北大清华解决 Agent 多轮对话 KV-Cache 瓶颈,实测吞吐量最高提升 1.96 倍。
- 阿里开源 CoPaw:对标 OpenClaw 的国产桌面 Agent 工具,原生接入钉钉、飞书等平台。
- 千问 3.5 家族扩容:Qwen3.5-35B-A3B 以不到七分之一参数量全面超越前代 Qwen3-235B-A22B。
- MiniMax MaxClaw:基于 OpenClaw 框架的云端托管方案,支持自然语言创建 Agent。
- 谷歌 Nano Banana 2:文生图性能登顶,单张生成成本降至 0.067 美元。
- Perplexity Computer:19 个 AI 模型协同编排的数字员工,面向 Max 订阅用户开放。
- Claude Code Remote Control:手机扫码接管本地编程会话,计算仍在本地执行。
- Claude Cowork 嵌入 Office:跨应用上下文传递,Anthropic 收购计算机操控公司 Vercept。
- OpenAI 融资 1100 亿美元:亚马逊领投,估值达 8400 亿美元。
DeepSeek V4 发布在即,国产算力适配取得突破
据《金融时报》援引知情人士消息,DeepSeek 将于下周发布新一代多模态大模型 V4。这是继去年 R1 推理模型以来首次重大更新。V4 采用万亿参数级 MoE 架构,每个 token 仅激活约 320 亿参数,上下文窗口扩展至 100 万 token。业界注意到,DeepSeek 早在 2 月 11 日就将网页端和 App 的上下文从 12.8 万升级到了 100 万,这被视为 V4 发布的预演。

芯片路线是本次最受关注的变化之一。DeepSeek 与华为、寒武纪合作完成了推理端的深度适配优化,未向英伟达提供模型预览,也没有针对英伟达产品做优化。此前有报道指出 DeepSeek 尝试在华为硬件上完成预训练时遇到技术困难,但 V4 的适配进展意味着国产算力在推理侧已取得实质性突破。发布时将附带简要技术说明,详细工程报告预计一个月后跟进。
此外,Anthropic 本月公开指控 DeepSeek、月之暗面和 MiniMax 通过虚假账户提取模型能力,OpenAI 也提交了类似指控。华尔街已在为 V4 可能带来的市场波动做准备。
DualPath 框架解决 Agent 推理瓶颈
2 月 25 日,DeepSeek 联合北大、清华发布 Agent 推理框架 DualPath,专门解决多轮对话场景下 KV-Cache 的存储 I/O 瓶颈。核心思路在于利用 Agent 应用中每轮对话超过 95% 的上下文是复用的特性。传统架构将所有缓存加载任务压在预填充引擎的存储网卡上,导致带宽打满而解码引擎闲置。DualPath 开辟第二条路径,先把缓存读到解码引擎,再通过 RDMA 高速网络传给预填充引擎,实现存储带宽的全局池化。

实测基于 DeepSeek V3.2 等三款模型,DualPath 离线推理吞吐提升最高 1.87 倍,在线服务吞吐平均提升 1.96 倍,首 token 延迟显著优化。整套改动仅约 5000 行代码,底层依赖 DeepSeek 自研的分布式存储系统 3FS。论文发布时间正好在 V4 前夕,等于提前亮出了 Agent 场景的推理基础设施。










