背景与目标
最近希望在 Jetson 上部署一个本地 OpenClaw,并通过飞书机器人进行远程交互,让闲置的边缘设备秒变高级 AI 助手。整体目标很明确:
- 在 Jetson 上运行 OpenClaw
- 接入自己的模型 API(这里使用的是阿里的 Coding Plan)
- 通过飞书群聊
@机器人或者私聊直接调用本地 Agent
最终的工作流如下:
Feishu Group ↓ Feishu Bot ↓ OpenClaw Gateway (Jetson) ↓ Agent ↓ LLM API ↓ 返回飞书消息
这篇文章记录从源码部署 OpenClaw 到接通飞书机器人的完整过程,以及过程中踩到的几个关键坑。
环境准备
本文使用的环境如下:
Jetson 环境
uname -a # 输出 Linux agx229-desktop 5.10.216-tegra #1 SMP PREEMPT Tue Mar 4 01:35:16 PST 2025 aarch64 aarch64 aarch64 GNU/Linux
lsb_release -a # 输出 Distributor ID: Ubuntu Description: Ubuntu 20.04.6 LTS Release: 20.04 Codename: focal
nvcc --version # 输出 Cuda compilation tools, release 11.4, V11.4.315
当前平台为 Jetson ARM64 + Ubuntu 20.04 + CUDA 11.4。这点很重要,因为后续某些依赖在 ARM64 + Ubuntu 20.04 上会遇到额外的兼容性问题。
安装 Node.js 与 pnpm
OpenClaw 是一个 Node.js 项目,首先需要准备 Node 环境。建议使用 Node 20。
# 安装 nvm
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.3/install.sh | bash
# 重新加载 shell 配置
source ~/.bashrc
# 如果使用 zsh
source ~/.zshrc
# 配置镜像加速下载(可选,建议中国用户使用)
nvm node_mirror https://npmmirror.com/mirrors/node/
nvm npm_mirror https://npmmirror.com/mirrors/npm/
# 安装并使用 Node.js 20
nvm install 20
nvm use 20
# 设为默认版本
nvm alias default 20
# 配置 npm 镜像加速
npm config set registry https://registry.npmmirror.com
# 验证安装
node --version
npm --version
还需要安装 pnpm:
npm install -g pnpm
安装后检查:
pnpm -v



















