概述
OpenClaw 是一款可在本地运行的 AI Agent 网关。本文记录从零搭建通过飞书对话管理服务器运维机器人的全过程。机器人支持通过飞书查看服务器状态、检索日志、管理进程,其核心机制在于:由 OpenClaw 将聊天平台(飞书等)的消息路由至大模型,模型调用本地工具(如 Shell、文件系统、浏览器)执行相应任务,最终将结果自动返回至飞书会话中,实现自动化运维交互。

架构概览
飞书 App (WebSocket 长连接) ↕ OpenClaw Gateway (服务器上 systemd 常驻) ↕ AI 模型 (DeepSeek v3.2/GLM 4.7) ↕ 服务器 Shell (受白名单限制的命令执行)
核心组件:
- OpenClaw Gateway:Agent 网关,管理会话、工具调用、渠道连接
- 飞书插件:通过 WebSocket 长连接收发消息,无需公网回调地址
- exec 工具:让 AI 在服务器上执行 shell 命令,支持白名单安全策略
- 模型提供商:支持自定义 OpenAI 兼容 API,本文使用 OneRouter 提供的 DeepSeek V3.2
环境要求
- Linux 服务器(本文使用 Ubuntu)
- Node.js 22+
- npm 10+
- 飞书企业账号(可免费创建)
- AI 模型 API(OpenAI / Anthropic / OpenRouter / 自定义兼容接口均可)
第一步:安装 OpenClaw
由于需要让机器人直接管理服务器上的服务,选择 npm 全局安装(裸机安装),而不是 Docker:
npm install -g openclaw
安装后确认 openclaw 命令可用。如果提示 command not found,需要把 npm 全局 bin 目录加入 PATH:
echo 'export PATH="$HOME/.npm-global/bin:$PATH"' >> ~/.bashrc
source ~/.bashrc
第二步:注册为 systemd 服务
让 Gateway 开机自启、后台常驻:
openclaw gateway install
openclaw gateway start
验证状态:
openclaw gateway status
第三步:配置模型提供商
编辑 ~/.openclaw/openclaw.json,添加模型配置。以 OneRouter + DeepSeek V3.2 为例:
{
"agents": {
"defaults": {



