背景与目标
最近本地运行的 AI Agent 网关 OpenClaw 挺火,咱们用它结合飞书,从零搭建一个能随时管理服务器的运维机器人。核心思路很简单:通过飞书对话触发大模型,模型调用本地工具(Shell、文件系统)执行任务,结果自动回传。这样就能随时随地查看状态、检索日志或管理进程。
系统架构
整个链路主要分四层:
- 飞书 App:负责 WebSocket 长连接收发消息
- OpenClaw Gateway:服务器端常驻服务,处理路由和工具调用
- AI 模型:如 DeepSeek v3.2 或 GLM 4.7
- 服务器 Shell:受白名单限制的命令执行环境
这里有个关键点,飞书插件利用 WebSocket 长连接,不需要公网回调地址,内网穿透也能跑。
前置条件
确保你的 Linux 服务器(推荐 Ubuntu)满足以下环境:
- Node.js 22+
- npm 10+
- 飞书企业账号(免费创建即可)
- AI 模型 API(支持 OpenAI/Anthropic/OpenRouter 或自定义兼容接口)
部署网关
为了让机器人直接管理服务,建议用 npm 全局安装(裸机模式),别用 Docker,方便调试。
npm install -g openclaw
装完确认 openclaw 命令可用。如果提示找不到命令,把 npm 全局 bin 目录加到 PATH 里:
echo 'export PATH="$HOME/.npm-global/bin:$PATH"' >> ~/.bashrc
source ~/.bashrc
接下来注册为 systemd 服务,让它开机自启并后台常驻:
openclaw gateway install
openclaw gateway start
openclaw gateway status
配置模型提供商
编辑 ~/.openclaw/openclaw.json,添加模型配置。本文以 OneRouter + DeepSeek V3.2 为例:
{
"agents": {
"defaults": {
"model": {
"primary": "onerouter/deepinfra/deepseek-v3.2"
}
}
},
"models"


