前言
最近本地运行的 AI Agent 网关 OpenClaw 非常火。我们用它配合飞书,从零搭建了一个能随时响应运维需求的机器人。它的核心逻辑很简单:通过飞书接收指令,OpenClaw 路由给大模型,模型调用本地工具(Shell、文件系统等)执行任务,再把结果返回到飞书会话里。

架构概览
飞书 App (WebSocket 长连接) ↕ OpenClaw Gateway (服务器上 systemd 常驻) ↕ AI 模型 (DeepSeek v3.2/GLM 4.7) ↕ 服务器 Shell (受白名单限制的命令执行)
关键组件包括管理会话与渠道的 OpenClaw Gateway、负责收发消息的飞书插件、以及支持白名单策略的 exec 工具。模型方面支持自定义 OpenAI 兼容 API,这里以 OneRouter 提供的 DeepSeek V3.2 为例。
环境准备
需要一台 Linux 服务器(Ubuntu),安装 Node.js 22+ 和 npm 10+。此外还需要一个飞书企业账号(免费)以及可用的 AI 模型 API。
安装 OpenClaw
为了让机器人直接管理服务,建议采用裸机全局安装而非 Docker:
npm install -g openclaw
安装完成后确认 openclaw 命令可用。如果提示找不到命令,记得把 npm 全局 bin 目录加入 PATH:
echo 'export PATH="$HOME/.npm-global/bin:$PATH"' >> ~/.bashrc
source ~/.bashrc
注册为系统服务
让 Gateway 开机自启并后台常驻:
openclaw gateway install
openclaw gateway start
openclaw gateway status
配置模型提供商
编辑 ~/.openclaw/openclaw.json,添加模型配置。任何兼容 OpenAI API 格式的提供商都可以接入:
{
"agents": {
"defaults": {
"model": {
"primary": "onerouter/deepinfra/deepseek-v3.2"
}
}
},



