项目概述
OpenClaw 是一个支持本地运行的 AI Agent 网关,利用它结合飞书 API 与大模型,可以快速搭建一个 7x24 小时在线的服务器运维助手。该方案的核心在于将聊天平台的消息路由至大模型,由模型调用本地工具(如 Shell、文件系统)执行任务,最终将结果返回至飞书会话。

架构设计
系统主要依赖四个层级:
飞书 App (WebSocket 长连接)
↕
OpenClaw Gateway (服务器上 systemd 常驻)
↕
AI 模型 (DeepSeek v3.2 / GLM 4.7)
↕
服务器 Shell (受白名单限制的命令执行)
核心组件包括管理会话与渠道连接的 OpenClaw Gateway、通过 WebSocket 收发消息的飞书插件、以及负责安全执行 Shell 命令的工具集。模型方面支持自定义 OpenAI 兼容接口,本文以 OneRouter 提供的 DeepSeek V3.2 为例。
前置准备
确保环境满足以下要求:
- Linux 服务器(推荐 Ubuntu)
- Node.js 22+
- npm 10+
- 飞书企业账号(免费版即可)
- AI 模型 API Key(支持 OpenAI / Anthropic / OpenRouter 等)
部署步骤
安装网关
为了让机器人直接管理服务,建议采用裸机全局安装而非 Docker。使用 npm 安装后,确认 openclaw 命令可用。若提示找不到命令,需将 npm 全局 bin 目录加入 PATH:
npm install -g openclaw
echo 'export PATH="$HOME/.npm-global/bin:$PATH"' >> ~/.bashrc
source ~/.bashrc
注册为系统服务
配置 systemd 实现开机自启与后台常驻:
openclaw gateway install
openclaw gateway start
openclaw gateway status
配置模型提供商
编辑 ~/.openclaw/openclaw.json 添加模型配置。任何兼容 OpenAI API 格式的提供商均可接入。以下是 OneRouter + DeepSeek V3.2 的配置示例:
{
"agents": {
"defaults": {
"model": {
"primary":


