1. 阿里 Qoder 发布 Qwen-Coder-Qoder
阿里 AI 编程工具 Qoder 正式发布专为自身平台打造的强化学习模型 Qwen-Coder-Qoder。该模型基于 Qwen-Coder 基座,紧密结合其 Agent 框架与工具,通过自研的 ROLL 训练框架进行大规模强化学习,旨在提升端到端的编程体验。
在面向真实软件工程任务的 Qoder Bench 评测中,该模型的任务解决率已超越 Cursor Composer-1,尤其在 Windows 系统下,其终端命令准确率领先幅度达到 50%。在实际线上应用中,该模型已将代码留存率提升了 3.85%,工具异常率降低了 61.5%,Token 消耗下降了 14.5%。
Qwen-Coder-Qoder 的设计遵循资深开发者思维模式,核心特性包括:严格遵守软件工程规范、具备项目全局感知能力、可高效并行处理无依赖任务,以及持续解决复杂问题的韧性。其研发基于'模型即 Agent'的智能进化体系,技术实现依赖三大要素:在真实 Agent 沙盒环境中学习、引入软件工程最佳实践作为奖励信号并通过'Rewarder - Attacker'对抗机制防止模型作弊,以及利用 ROLL 框架实现数千卡集群上 10 倍以上的训练吞吐提升。
目前,Qwen-Coder-Qoder 已在产品中正式上线。
https://qoder.com/blog/qwen-coder-qoder
2. Kimi 与南大发布 SimpleSeg 赋能模型像素感知
Kimi Team 联合南京大学发布 SimpleSeg,通过将图像分割任务重构为序列生成问题,赋予多模态大语言模型(MLLM)原生像素级感知能力。该方法使模型直接在语言空间内预测物体边界的坐标点序列,采用 SFT 监督微调与基于 IoU 奖励的强化学习两阶段训练提升轮廓精度。
官方表示,SimpleSeg 在标准 MLLM 架构下无需任何专用模块,性能在多个分割基准测试中达到或超越复杂专用算法。其具备简单性、任务通用性及可解释输出三大核心优势,目前已基于 Kimi-VL 和 Qwen2.5-VL 实现模型应用。
3. 字节研究团队发布 ConceptMoE 提升 AI 推理
ByteDance 研究团队发布 ConceptMoE 架构,通过可学习的自适应块化技术,将大语言模型处理从 Token 级别提升至概念级别。该架构利用可学习的 Chunk 模块识别最优边界,动态合并语义相似的 Token 序列为统一概念表示,实现隐式计算分配,对可预测序列进行压缩,对复杂 Token 则保留精细化计算,从而在不改变模型参数与计算量的前提下显著提升性能。
https://github.com/ZihaoHuang-notabot/ConceptMoE
https://arxiv.org/abs/2601.21420
4. 阶跃星辰发布并开源模型 Step 3.5 Flash
阶跃星辰发布新一代开源基座模型 Step 3.5 Flash,专为 Agent 场景设计。该模型采用 196B 总参数(激活 11B)的稀疏 MoE 架构,支持 256K 上下文,并利用 MTP-3 技术在单请求代码任务中实现最高 350 TPS 的推理速度。
在性能上,该模型在数学推理、代码和智能体任务上逼近顶级闭源模型。官方数据显示,开启 Parallel Thinking 后,其在 AIME、IMOAnswerBench 等数学竞赛和 BrowseComp 等智能体基准测试中表现领先,代码能力则逼近 Gemini 3.0 Pro。
核心能力方面,模型具备

