OpenClaw 接入 GLM-5 教程:本地 AI 助手完整搭建指南

OpenClaw 接入 GLM-5 教程:本地 AI 助手完整搭建指南

OpenClaw 接入 GLM-5 教程:本地 AI 助手完整搭建指南

关键词:OpenClaw 安装教程、GLM-5 配置方法、GLM Coding Plan 使用教程、本地 AI 助手搭建、Z.AI 接入流程

GLM Coding Plan 体验卡入口(下单立减10%金额):
https://www.bigmodel.cn/glm-coding?ic=9FFMZZ9M7C

在这里插入图片描述

最近在折腾一个可以本地运行的 AI Agent方案,目标很明确:

  • 在自己设备运行
  • 可接入多平台(Web / Slack / Discord)
  • 模型稳定、推理强、支持复杂 Agent 任务

测试后发现,OpenClaw + GLM Coding Plan 组合是目前比较稳定的一套方案。

本文详细讲清楚完整搭建流程,包括:

  • OpenClaw 安装
  • GLM Coding Plan 接入
  • GLM-5 模型配置
  • 故障排查
  • 高级配置(模型故障转移)

一、什么是 OpenClaw?

OpenClaw 是一个:

  • 本地运行的 AI Agent 框架
  • 支持多渠道交互
  • 支持插件 & 技能系统
  • 支持多模型 provider

简单理解:

它是一个可扩展的本地智能助手平台。

搭配 GLM Coding Plan,可以显著增强推理与代码能力。


二、准备工作

1️⃣ 获取 API Key

  1. 访问智谱开放平台
    https://open.bigmodel.cn
  2. 创建 API Key
  3. 确保已订阅 GLM Coding Plan

👉 如果你还没有开通,可以通过我的邀请链接注册,下单立减 10% 金额:

专属链接(下单立减10%):
https://www.bigmodel.cn/glm-coding?ic=9FFMZZ9M7C


三、安装 OpenClaw

方式一:官方脚本安装(推荐)

macOS / Linux

curl-fsSL https://openclaw.ai/install.sh |bash

Windows PowerShell

在这里插入图片描述
iwr-useb https://openclaw.ai/install.ps1 |iex

方式二:手动全局安装

前置条件:

  • Node.js 22+
npminstall-g openclaw@latest 

或者使用 pnpm:

pnpmadd-g openclaw@latest pnpm approve-builds -g

四、初始化配置

安装完成后执行:

openclaw onboard --install-daemon 
在这里插入图片描述

如果已初始化:

openclaw config 

配置步骤说明

1️⃣ 风险提示

I understand this is powerful and inherently risky. Continue? 

选择:

Yes 

2️⃣ Onboarding mode

选择:

Quick Start 

3️⃣ Model/auth provider

选择:

Z.AI 
在这里插入图片描述

五、配置 GLM Coding Plan

当选择 Z.AI 后:

  1. 选择:
Coding-Plan-CN 
  1. 输入你的 API Key
  2. 选择模型:

推荐:

zai/glm-5 
在这里插入图片描述

⚠ 注意:

目前编程套餐支持模型:

  • GLM-5
  • GLM-4.7
  • GLM-4.6
  • GLM-4.5
  • GLM-4.5-Air
  • GLM-4.5V
  • GLM-4.6V

不要选择:

Flash FlashX 

否则可能产生额外计费。


六、启动机器人

在这里插入图片描述

配置完成后:

How do you want to hatch your bot? 

选择:

Hatch in TUI (recommended) 

此时即可在 Terminal 中与机器人交互。


七、Web UI 使用

在这里插入图片描述

终端会显示类似:

Web UI (with token) 

复制该地址在浏览器打开即可。

在这里插入图片描述

八、安装后验证

openclaw doctor openclaw status openclaw dashboard 

用途:

命令作用
doctor检查配置
status查看网关状态
dashboard浏览器打开控制台

九、高级配置:模型故障转移

编辑:

.openclaw/openclaw.json 

配置如下:

{"agents":{"defaults":{"model":{"primary":"zai/glm-5","fallbacks":["zai/glm-4.7","zai/glm-4.6","zai/glm-4.5-air"]}}}}

作用:

当主模型不可用时自动切换,保证服务稳定。


十、技能系统(Skills)

技能是包含 SKILL.md 的功能扩展包。

安装 clawhub:

npm i -g clawhub 

搜索技能:

clawhub search "postgres backups"

安装技能:

clawhub install my-skill-pack 

更新技能:

clawhub update --all

十一、插件系统

查看插件:

openclaw plugins list 

安装插件:

openclaw plugins install @openclaw/voice-call 

重启网关:

openclaw gateway restart 

十二、常见问题排查

1️⃣ API Key 无效

  • 是否订阅 GLM Coding Plan
  • 是否输入错误
  • 是否环境变量未生效

2️⃣ 模型不可用

  • 检查模型名格式
  • 是否使用支持模型

3️⃣ 网络问题

  • 检查 gateway 是否启动
  • 检查网络出口是否正常

十三、安全提示

OpenClaw 属于高权限 Agent 系统。

若暴露公网:

  • 必须配置访问控制
  • 必须阅读安全文档
  • 不建议默认开放端口

总结

如果你希望搭建:

  • 本地 AI Agent
  • 可扩展插件系统
  • 可接入强推理模型
  • 稳定可靠的编程模型方案

OpenClaw + GLM Coding Plan 是目前成熟度较高的组合。

再次附上邀请链接(下单立减10%):

👉 https://www.bigmodel.cn/glm-coding?ic=9FFMZZ9M7C

建议先开通 GLM Coding Plan,再进行本地部署测试。

Read more

RuoYi-Vue3跨平台开发实践:从Web到桌面的无缝迁移方案

RuoYi-Vue3跨平台开发实践:从Web到桌面的无缝迁移方案 【免费下载链接】RuoYi-Vue3:tada: (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统 项目地址: https://gitcode.com/GitHub_Trending/ruo/RuoYi-Vue3 你是否曾为Web应用在特定场景下的局限性而困扰?是否希望将成熟的企业级管理系统快速转化为功能完备的桌面应用?本文将为你揭秘如何通过Electron框架,将RuoYi-Vue3权限管理系统改造为跨平台桌面应用,实现技术栈的平滑迁移和部署效率的显著提升。 痛点分析:为什么需要桌面化改造 Web应用的现实局限 在传统的Web部署模式下,RuoYi-Vue3虽然功能强大,但在以下场景中仍显不足: 场景问题描述桌面化优势离线使用依赖网络连接支持本地运行系统集成访问权限受限深度系统集成用户体验浏览器限制原生应用体验安全性数据暴露风险本地数据存储 跨平台开发的价值体现 通过Electr

CSS 颜色函数和渐变:打造绚丽多彩的前端界面

CSS 颜色函数和渐变:打造绚丽多彩的前端界面 代码如诗,色彩如画。让我们用 CSS 颜色函数和渐变创建令人惊叹的视觉效果,为用户带来沉浸式的色彩体验。 什么是 CSS 颜色函数? CSS 颜色函数是一组用于生成和操作颜色的函数,它们允许我们以更加灵活和动态的方式定义颜色。这些函数包括 rgb()、rgba()、hsl()、hsla()、hwb()、lab()、lch() 以及最新的 color-mix() 等。 常用颜色函数 1. RGB 颜色函数 /* 传统 RGB 函数 */ color: rgb(255, 0, 0); /* 红色 */ /* RGB 函数的百分比形式 */ color: rgb(100% 0% 0%); /* 红色 */ /* RGBA 函数(带透明度)

Clawdbot镜像免配置部署Qwen3-32B:Web网关直连方案快速上手指南

Clawdbot镜像免配置部署Qwen3-32B:Web网关直连方案快速上手指南 1. 为什么你需要这个方案 你是不是也遇到过这样的情况:想试试最新发布的Qwen3-32B大模型,但一打开部署文档就看到密密麻麻的环境依赖、CUDA版本校验、模型分片加载、API服务配置……光是看就头大?更别说还要自己搭Web界面、处理跨域、调试端口转发了。 Clawdbot镜像就是为解决这个问题而生的。它不是另一个需要你从零编译、反复调试的项目,而是一个“开箱即用”的完整推理平台——把Qwen3-32B直接封装进预置镜像里,连Ollama服务、模型加载、Web网关、前端交互全给你配好了。你只需要启动它,打开浏览器,就能和320亿参数的大模型对话。 这不是概念演示,也不是简化版demo。它背后跑的是原生Qwen3-32B权重,通过Ollama标准API接入,再经由Clawdbot内置代理将8080端口无缝映射到18789网关,全程无需修改配置文件、无需安装额外组件、无需理解反向代理原理。对开发者来说,省下的是两小时部署时间;对业务方来说,换来的是当天就能试跑真实场景的响应速度。 下面我们就从零

前端AI工具实践

前端AI工具实践

Claude Code前端使用 步骤一:安装 Claude Code npm install -g @anthropic-ai/claude-code 运行如下命令,查看安装结果,若显示版本号则表示安装成功 claude --version 步骤二:配置Claude Code+GLM智谱大模型(免费) Coding Tool Helper 是一个编码工具助手,安装并运行它,按照界面提示操作即可自动完成工具安装,套餐配置,MCP服务器管理等。 # 进入命令行界面,执行如下运行 Coding Tool Helper npx @z_ai/coding-helper 步骤三:开始使用 Claude Code VSCODE安装Claude Code 插件 Claude Code CLI(到指定项目目录打开CLI) Claude