GLM-4.7 技术解析:开源模型在编码与推理上的新突破
一、引言:从'对话'到'执行'的跃迁
2025 年,大语言模型(LLM)的竞争焦点已从单纯的对话质量,转向了复杂任务执行与工程化落地能力。市场更关注模型能否真正'把活干完',尤其是在软件工程、数据分析、自动化办公等场景中,模型需要能够理解需求、拆解任务、调用工具并修正错误,直至任务完成。
GLM-4.7 正是智谱 AI 在这一背景下推出的新一代旗舰模型。它并非简单的参数升级,而是一次面向'Agentic Coding'和'复杂推理'的系统性跃迁,旨在将模型从'答得对'推向'做得完'。
- 核心目标:强化编码、长程任务规划与工具协同能力。
- 技术基石:引入'交织式思考'、'保留式思考'等可控推理机制。
- 能力拓展:提升前端审美与 UI 生成能力,支持多模态任务规划。
二、GLM-4.7 概览:定位、发布与生态
2.1 基本信息
- 发布方:智谱 AI
- 发布时间:2025 年 12 月 23 日
- 模型类型:通用大语言模型,重点强化编程与推理能力
- 模型架构:基于 Transformer 的混合专家(MoE)架构,总参数约 400B,激活参数约 20B–30B
- 上下文窗口:支持约 200K 输入 tokens 和 128K 输出 tokens
2.2 发布与开源
GLM-4.7 在发布当日即通过官方 API 平台开放服务,并上线全栈开发模式的 Skills 模块。其开源策略迅速获得了全球开发者的积极响应,在 Hugging Face 全球趋势榜上登顶,并被多个海内外平台宣布接入。
2.3 生态与产业支持
GLM-4.7 的快速发展得益于完善的生态系统和产业支持。其架构已适配多款国产芯片,并在公共算力平台上完成训练,为模型训练提供了坚实基础。
三、技术架构:为 Agent 而生的 MoE 设计
3.1 整体架构
GLM-4.7 延续了 GLM 系列的自回归 Transformer 架构,并针对编程和推理任务进行了深度优化。其核心是混合专家(MoE)架构,通过门控网络将输入分配给不同的'专家'子网络,在保持强大能力的同时有效控制了推理成本。
3.2 上下文与输出能力
GLM-4.7 支持约 200K 的输入上下文和 128K 的输出长度,这一特性对于处理长文档、分析大型代码库和执行多步骤的复杂任务至关重要,为 Agent 的'长链路执行'提供了可能。
3.3 模态策略
GLM-4.7 定位为文本大模型,其强大的视觉理解能力主要由 GLM-4V 系列模型承担。在开发平台中,GLM-4.7 作为'决策大脑',负责理解用户意图、规划任务流程,并协同调度视觉、语音等多模态能力,实现统一的多模态任务规划与协作。
3.4 训练范式
GLM-4.7 的训练不仅依赖于大规模的预训练和指令微调,更引入了基于可验证奖励的强化学习(RLVR)框架。该框架将任务执行、结果验证、奖励计算和策略更新整合成一条自动化的工程流水线,持续打磨模型在复杂任务中的表现。
四、能力评测:代码、推理与工具的全面领先
4.1 编码能力
GLM-4.7 在多个权威编码基准测试中表现卓越。
- SWE-bench-Verified:得分 73.8%,位列开源第一,超越 GPT-5.1 High 和 Claude Sonnet 4.5。
- LiveCodeBench V6:得分 84.9 分,刷新开源 SOTA 纪录,超越 Claude Sonnet 4.5。
- Code Arena:在百万用户盲测中位列开源第一、国产第一,综合表现超越 GPT-5.2。

