1. 背景
本文介绍如何在 Jetson 边缘设备上部署本地 OpenClaw,并通过飞书机器人进行远程交互,实现闲置设备作为 AI 助手的功能。整体目标包括:
- 在 Jetson 上运行 OpenClaw
- 接入模型 API(如阿里云百炼)
- 通过飞书群聊 @机器人 或私聊调用本地 Agent
工作流如下:
Feishu Group -> Feishu Bot -> OpenClaw Gateway (Jetson) -> Agent -> LLM API -> 返回飞书消息
2. 环境信息
Jetson 环境
uname -a # Linux agx229-desktop 5.10.216-tegra ...
lsb_release -a # Ubuntu 20.04.6 LTS
nvcc --version # CUDA 11.4
当前平台为 Jetson ARM64 + Ubuntu 20.04 + CUDA 11.4。需注意 ARM64 平台的依赖兼容性问题。
3. 安装 Node.js 与 pnpm
OpenClaw 是 Node.js 项目,需准备 Node 环境。建议使用 Node 20。
# 安装 nvm
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.3/install.sh | bash
source ~/.bashrc
# 配置镜像加速(可选)
nvm node_mirror https://npmmirror.com/mirrors/node/
nvm npm_mirror https://npmmirror.com/mirrors/npm/
# 安装并使用 Node.js 20
nvm install 20
nvm use 20
nvm alias default 20
# 配置 npm 镜像
npm config set registry https://registry.npmmirror.com
node --version
npm --version
安装 pnpm:
npm install -g pnpm
pnpm -v
4. 配置 pnpm 环境变量
将以下内容加入 ~/.bashrc:
export PNPM_HOME="/home/agx229/.local/share/pnpm"
case ":$PATH:" in *":$PNPM_HOME:*) ;; *) export PATH="$PNPM_HOME:$PATH" ;; esac
保存后执行 source ~/.bashrc 并验证 echo $PNPM_HOME 和 which pnpm。
5. 克隆 OpenClaw 源码
cd ~
git clone https://github.com/openclaw/openclaw.git
cd openclaw
6. 解决 Jetson 上 CMake 版本过低问题
系统自带 CMake 可能过低,OpenClaw 依赖要求更高版本。
cd ~
wget https://github.com/Kitware/CMake/releases/download/v3.31.6/cmake-3.31.6-linux-aarch64.sh
chmod +x cmake-3.31.6-linux-aarch64.sh
sudo ./cmake-3.31.6-linux-aarch64.sh --skip-license --prefix=/usr/local
/usr/local/bin/cmake --version
若找不到新版本,可临时加入 PATH:export PATH=/usr/local/bin:$PATH。
7. 安装依赖并编译 OpenClaw
cd ~/openclaw
pnpm install
pnpm build
如遇原生模块编译问题,检查 CMake 版本、build-essential 及 pnpm 路径。
8. 配置模型 API
OpenClaw 通过 ~/.openclaw/openclaw.json 配置。
mkdir -p ~/.openclaw
nano ~/.openclaw/openclaw.json
参考官方文档配置模型服务(如阿里云百炼控制台)。
9. 配置 Gateway Token
OpenClaw 架构中 CLI 是 Gateway 的客户端,需配置认证 Token。 推荐配置:
{
"gateway": {
"mode": "local",
"auth": { "mode": "token", "token": "Yours Token" },
"remote": { "token": "Yours Token" }
}
}
gateway.auth.token:服务端认证 tokengateway.remote.token:客户端连接 token 两者必须一致。
10. 启动 Gateway 服务
openclaw gateway install
systemctl --user start openclaw-gateway.service
openclaw gateway status
正常状态应显示 Runtime: running 及监听端口。
11. 验证 TUI 是否可用
openclaw tui
成功则界面显示已连接并可对话。若出现 token mismatch,检查上述配置。
12. 配置飞书机器人
第一步:创建应用
进入飞书开放平台创建企业自建应用。
第二步:启用机器人能力
在应用后台启用机器人功能。
第三步:配置权限
在'开发配置 > 权限管理'中批量导入所需权限(如 im:message:send_as_bot, im:chat:read 等),申请开通。
第四步:发布应用
完成配置后发布应用版本。
第五步:配置 Feishu Channel
openclaw channels add
选择 Feishu / Lark,输入 App ID 和 App Secret。
第六步:配置事件与回调
选择使用长连接接收事件,添加事件 im.message.receive_v1,配置回调地址。
第七步:重启 Gateway
openclaw gateway restart
第八步:配置私聊绑定
在飞书 APP 中找到开发者小助手,获取 Pairing code,在终端执行:
openclaw pairing approve feishu NHMC7CRG
13. 常见坑总结
- CMake 版本过低:导致依赖编译失败。
- 未配置 pnpm PATH:全局命令或 UI 构建异常。
- 误以为需单独安装插件:源码版已内置。
- 未配置
gateway.remote.token:CLI 连接时 token mismatch。 - App ID / App Secret 错误:使用旧凭证导致无法连接。
- 修改后未发布版本:配置不生效。
14. 最终效果
完成配置后可实现:
- Jetson 运行 OpenClaw Gateway
- 接入自有模型 API
- 飞书群 @机器人 调用本地 Agent
- 支持远程查询状态、执行任务等扩展
15. 总结
在 Jetson 上部署 OpenClaw 接入飞书机器人的关键在于处理 ARM 平台依赖、pnpm 环境变量及 Gateway token 机制。处理好这些点后,链路较为顺畅。


