OpenClaw 接入 GLM-5 教程:本地 AI 助手完整搭建指南

OpenClaw 接入 GLM-5 教程:本地 AI 助手完整搭建指南

OpenClaw 接入 GLM-5 教程:本地 AI 助手完整搭建指南

关键词:OpenClaw 安装教程、GLM-5 配置方法、GLM Coding Plan 使用教程、本地 AI 助手搭建、Z.AI 接入流程

GLM Coding Plan 体验卡入口(下单立减10%金额):
https://www.bigmodel.cn/glm-coding?ic=9FFMZZ9M7C

在这里插入图片描述

最近在折腾一个可以本地运行的 AI Agent方案,目标很明确:

  • 在自己设备运行
  • 可接入多平台(Web / Slack / Discord)
  • 模型稳定、推理强、支持复杂 Agent 任务

测试后发现,OpenClaw + GLM Coding Plan 组合是目前比较稳定的一套方案。

本文详细讲清楚完整搭建流程,包括:

  • OpenClaw 安装
  • GLM Coding Plan 接入
  • GLM-5 模型配置
  • 故障排查
  • 高级配置(模型故障转移)

一、什么是 OpenClaw?

OpenClaw 是一个:

  • 本地运行的 AI Agent 框架
  • 支持多渠道交互
  • 支持插件 & 技能系统
  • 支持多模型 provider

简单理解:

它是一个可扩展的本地智能助手平台。

搭配 GLM Coding Plan,可以显著增强推理与代码能力。


二、准备工作

1️⃣ 获取 API Key

  1. 访问智谱开放平台
    https://open.bigmodel.cn
  2. 创建 API Key
  3. 确保已订阅 GLM Coding Plan

👉 如果你还没有开通,可以通过我的邀请链接注册,下单立减 10% 金额:

专属链接(下单立减10%):
https://www.bigmodel.cn/glm-coding?ic=9FFMZZ9M7C


三、安装 OpenClaw

方式一:官方脚本安装(推荐)

macOS / Linux

curl-fsSL https://openclaw.ai/install.sh |bash

Windows PowerShell

在这里插入图片描述
iwr-useb https://openclaw.ai/install.ps1 |iex

方式二:手动全局安装

前置条件:

  • Node.js 22+
npminstall-g openclaw@latest 

或者使用 pnpm:

pnpmadd-g openclaw@latest pnpm approve-builds -g

四、初始化配置

安装完成后执行:

openclaw onboard --install-daemon 
在这里插入图片描述

如果已初始化:

openclaw config 

配置步骤说明

1️⃣ 风险提示

I understand this is powerful and inherently risky. Continue? 

选择:

Yes 

2️⃣ Onboarding mode

选择:

Quick Start 

3️⃣ Model/auth provider

选择:

Z.AI 
在这里插入图片描述

五、配置 GLM Coding Plan

当选择 Z.AI 后:

  1. 选择:
Coding-Plan-CN 
  1. 输入你的 API Key
  2. 选择模型:

推荐:

zai/glm-5 
在这里插入图片描述

⚠ 注意:

目前编程套餐支持模型:

  • GLM-5
  • GLM-4.7
  • GLM-4.6
  • GLM-4.5
  • GLM-4.5-Air
  • GLM-4.5V
  • GLM-4.6V

不要选择:

Flash FlashX 

否则可能产生额外计费。


六、启动机器人

在这里插入图片描述

配置完成后:

How do you want to hatch your bot? 

选择:

Hatch in TUI (recommended) 

此时即可在 Terminal 中与机器人交互。


七、Web UI 使用

在这里插入图片描述

终端会显示类似:

Web UI (with token) 

复制该地址在浏览器打开即可。

在这里插入图片描述

八、安装后验证

openclaw doctor openclaw status openclaw dashboard 

用途:

命令作用
doctor检查配置
status查看网关状态
dashboard浏览器打开控制台

九、高级配置:模型故障转移

编辑:

.openclaw/openclaw.json 

配置如下:

{"agents":{"defaults":{"model":{"primary":"zai/glm-5","fallbacks":["zai/glm-4.7","zai/glm-4.6","zai/glm-4.5-air"]}}}}

作用:

当主模型不可用时自动切换,保证服务稳定。


十、技能系统(Skills)

技能是包含 SKILL.md 的功能扩展包。

安装 clawhub:

npm i -g clawhub 

搜索技能:

clawhub search "postgres backups"

安装技能:

clawhub install my-skill-pack 

更新技能:

clawhub update --all

十一、插件系统

查看插件:

openclaw plugins list 

安装插件:

openclaw plugins install @openclaw/voice-call 

重启网关:

openclaw gateway restart 

十二、常见问题排查

1️⃣ API Key 无效

  • 是否订阅 GLM Coding Plan
  • 是否输入错误
  • 是否环境变量未生效

2️⃣ 模型不可用

  • 检查模型名格式
  • 是否使用支持模型

3️⃣ 网络问题

  • 检查 gateway 是否启动
  • 检查网络出口是否正常

十三、安全提示

OpenClaw 属于高权限 Agent 系统。

若暴露公网:

  • 必须配置访问控制
  • 必须阅读安全文档
  • 不建议默认开放端口

总结

如果你希望搭建:

  • 本地 AI Agent
  • 可扩展插件系统
  • 可接入强推理模型
  • 稳定可靠的编程模型方案

OpenClaw + GLM Coding Plan 是目前成熟度较高的组合。

再次附上邀请链接(下单立减10%):

👉 https://www.bigmodel.cn/glm-coding?ic=9FFMZZ9M7C

建议先开通 GLM Coding Plan,再进行本地部署测试。

Read more

本地部署智能家居集成解决方案 ESPHome 并实现外部访问( Linux 版本)

本地部署智能家居集成解决方案 ESPHome 并实现外部访问( Linux 版本)

ESPHome 是一款用于 ESP8266 和 ESP32 芯片设备的开源系统,它允许用户通过定义简单的 YAML 配置文件来创建复杂的物联网( IoT )设备应用,而无需直接编写底层代码,特别适合于智能家居解决方案,可以与 Home Assistant 完美集成,但也可以独立使用。本文将详细介绍如何在 Linux 系统局域网内部署 ESPHome 并结合路由侠实现外网访问局域网内部署的 ESPHome 。 第一步,本地部署 ESPHome 1,本教程使用 Linux Ubuntu 系统进行演示,首先输入以下命令更新软件包列表并安装一些必要的依赖项。 sudo apt-get update && sudo apt-get install -y python3-pip python3-dev git 2,安装虚拟环境 venv 模块。 sudo

EpicDesigner快速上手指南:Vue3拖拽式低代码设计器

EpicDesigner快速上手指南:Vue3拖拽式低代码设计器 【免费下载链接】epic-designer 项目地址: https://gitcode.com/gh_mirrors/ep/epic-designer 项目快速了解 EpicDesigner是一款基于Vue3开发的现代化低代码设计器,它让页面开发变得像搭积木一样简单。无论你是前端新手还是资深开发者,都能通过拖拽组件的方式快速生成功能完整的页面。 环境准备清单 在开始安装之前,请确保你的开发环境满足以下要求: 必备条件: * Node.js 14.x 或更高版本 * npm 或 yarn 包管理器 * 现代浏览器(推荐Chrome、Firefox) 可选准备: * 熟悉Vue3基础概念 * 了解JSON数据结构 三步安装法 第一步:获取项目代码 git clone https://gitcode.com/gh_mirrors/ep/epic-designer 第二步:安装依赖

QWEN-AUDIO应用探索:为AR眼镜语音助手提供低延迟本地化TTS服务

QWEN-AUDIO应用探索:为AR眼镜语音助手提供低延迟本地化TTS服务 想象一下,你戴着一副AR眼镜,正在维修一台复杂的设备。你双手沾满油污,无法操作任何屏幕,但你需要立刻查阅一份技术手册。你只需要说一句:“嘿,助手,帮我找到离心泵的拆卸步骤。” 下一秒,一个清晰、自然、仿佛真人就在你耳边的声音,开始为你逐条朗读操作指南。整个过程,从你提问到听到回答,几乎没有延迟,而且所有处理都在你的眼镜本地完成,无需连接云端,数据安全无忧。 这个场景的核心,就是一个能跑在边缘设备上的、高质量的语音合成(TTS)服务。今天,我们就来深入探索如何利用QWEN-AUDIO这个强大的智能语音合成系统,为AR眼镜这类对延迟、隐私和功耗都极其敏感的硬件,构建一个理想的本地化语音助手“发声”引擎。 1. 为什么AR眼镜需要QWEN-AUDIO这样的本地TTS? 在深入技术细节前,我们先要理解AR眼镜语音交互面临的独特挑战,以及云端TTS方案的局限性。 1.1 AR眼镜语音交互的三大核心痛点 1. 延迟敏感:AR是增强现实,交互必须实时。用户发出指令后,如果语音反馈有明显的“卡顿”

无人机相关法律法规全体系梳理

无人机相关法律法规全体系梳理 随着无人机产业的高速发展,我国已构建起以“国家行政法规为核心、部门规章为支撑、地方细则为补充”的无人机法律体系,覆盖无人机生产、登记、飞行、监管全链条。本梳理结合2024-2025年最新法规修订内容,聚焦不同主体(个人/企业)的合规要点,明确权利与义务边界。 一、国家层面核心行政法规(基础遵循) 此类法规具有最高法律效力,是无人机管理的根本依据,核心包括《无人驾驶航空器飞行管理暂行条例》及关联法律修订内容。 1. 《无人驾驶航空器飞行管理暂行条例》(2024年1月1日实施) 我国首部专门规范无人机的行政法规,共6章63条,确立“分类管理、安全优先”的核心原则,覆盖无人机全生命周期管理。核心条款如下: (1)无人机分类与适航管理 按性能指标将无人机分为五类,差异化设定适航要求,是后续所有管理的基础: 类别 核心指标(空机重量/最大起飞重量) 适航许可要求 生产标注要求 微型 <0.25千克