智谱 GLM-5 旗舰模型开源
GLM-5 正式开源,昇腾 AI 基础软硬件实现适配,为该模型的推理部署和训练复现提供全流程支持。
学界与业界正逐渐形成一种共识,大模型从写代码、写前端,进化到写工程、完成大任务,即从 "Vibe Coding" 变革为 "Agentic Engineering"。GLM-5 是这一变革的产物:在 Coding 与 Agent 能力上,GLM-5 取得开源 SOTA 表现,在真实编程场景的使用体感逼近 Claude Opus 4.5,擅长复杂系统工程与长程 Agent 任务。
在全球权威的 Artificial Analysis 榜单中,GLM-5 位居全球前四、开源第一。
[图片]
一、更大基座,更强智能
GLM-5 全新基座为从 "写代码" 到 "写工程" 的能力演进提供了坚实基础:
- **参数规模扩展:**从 355B(激活 32B)扩展至 744B(激活 40B),预训练数据从 23T 提升至 28.5T,更大规模的预训练算力显著提升了模型的通用智能水平。
- **异步强化学习:**构建全新的 "Slime" 框架、支持更大模型规模及更复杂的强化学习任务,提升强化学习后训练流程效率;提出异步智能体强化学习算法,使模型能够持续从长程交互中学习,充分激发预训练模型的潜力。
- **稀疏注意力机制:**首次集成 DeepSeek Sparse Attention,在维持长文本效果无损的同时,大幅降低模型部署成本,提升 Token Efficiency。
二、Coding 能力:对齐 Claude Opus 4.5
GLM-5 在编程能力上实现了对齐 Claude Opus 4.5,在业内公认的主流基准测试中取得开源模型 SOTA。在 SWEbench-Verified 和 Terminal Bench 2.0 中分别获得 77.8 和 56.2 的开源模型最高分数,性能超过 Gemini3 Pro。
[图片]
三、Agent 能力:SOTA 级长程任务执行
GLM-5 在 Agent 能力上实现开源 SOTA,在多个评测基准中取得开源第一。在 BrowseComp(联网检索与信息理解)、MCP-Atlas(大规模端到端工具调用)和 τ²-Bench(复杂场景下自动代理的工具规划和执行)均取得最高表现。
[图片]
四、Agentic Engineering 典型场景
场景一:端到端应用开发
许多开发者使用 GLM-5 完成了真正能用、能玩、能上线的应用。
开发者们用 GLM-5 制作出了横版解谜游戏、Agent 交互世界、论文版'抖音'等应用,这些应用已开放下载,或已提交商店审核。这些案例展示了 GLM-5 在复杂系统工程中端到端交付可部署产品的能力。
场景二:通用 Agent 助手
GLM-5 较强的 Agentic 工具调用能力,使其成为通用 Agent 助手的理想基座模型。
接入 GLM-5,用户可以拥有一个智能的实习生,帮你搜索网站、定时整理资讯、发布推文、编程等。团队推出了 AutoGLM 版本的 OpenClaw,支持一键完成配置,帮助用户极速部署专属 7×24 小时智能助手。
场景三:Z Code 全流程编程
当 GLM-5 进化到能跑完整个闭环,编程工具也需要以此为核心重构。为此,团队推出 Z Code。用户只需把需求说清楚,模型会自动拆解任务,多智能体并发完成代码、跑命令、调试、预览和提交等开发全流程。
在 Z Code 上,用户甚至可以用手机远程指挥桌面端 Agent,解决以往需要很久的工程任务。
值得一提的是,Z Code 也是全程由 GLM 模型参与开发完成。
场景四:办公文档直接输出
GLM-5 拥有更强大的复杂系统工程和长程智能体能力,可将文本或素材直接转换为 .docx、.pdf 和 .xlsx 文件。
用户可以让 GLM-5 直接输出产品需求文档、教案、试卷、电子表格、财务报告、流程表、菜单等文档。
五、基于昇腾部署模型指导
目前业界主流推理引擎 vLLM-Ascend、SGLang 和 xLLM 已支持高效部署,以下为基于 vLLM-Ascend 部署推理 GLM-5 模型步骤:
模型权重
- **GLM-5(BF16 版本):**请前往官方模型仓库下载。
- **GLM-5-w4a8(无 mtp 的量化版本):**请前往官方模型仓库下载。
- 可使用相关工具对模型进行基础量化。
- 建议将模型权重下载至多节点共享目录,例如 /root/.cache/。


