概述
OpenClaw 是一个可在本地运行的 AI Agent 网关,通过它我们可以构建一个能随时响应指令的运维机器人。核心思路是:将飞书等聊天平台的消息路由至大模型,模型调用本地工具(如 Shell、文件系统)执行任务,再将结果自动返回给会话。

架构概览
飞书 App (WebSocket 长连接)
↕
OpenClaw Gateway (服务器上 systemd 常驻)
↕
AI 模型 (DeepSeek v3.2/GLM 4.7)
↕
服务器 Shell (受白名单限制的命令执行)
关键组件包括管理会话与渠道连接的 OpenClaw Gateway、负责收发消息的飞书插件、支持白名单策略的 exec 工具,以及自定义的模型提供商。
环境准备
- Linux 服务器(本文以 Ubuntu 为例)
- Node.js 22+
- npm 10+
- 飞书企业账号(免费创建即可)
- AI 模型 API(兼容 OpenAI 格式的接口均可)
安装与服务化
为了让机器人直接管理服务,建议采用裸机全局安装而非 Docker。
npm install -g openclaw
安装后确认命令可用。若提示 command not found,需将 npm 全局 bin 目录加入 PATH:
echo 'export PATH="$HOME/.npm-global/bin:$PATH"' >> ~/.bashrc
source ~/.bashrc
接着将其注册为系统服务,实现开机自启与后台常驻:
openclaw gateway install
openclaw gateway start
openclaw gateway status
配置模型提供商
编辑 ~/.openclaw/openclaw.json,添加模型配置。这里以 OneRouter + DeepSeek V3.2 为例:
{
"agents": {
"defaults": {
"model": {
"primary": "onerouter/deepinfra/deepseek-v3.2"
}
}
}



