【大模型应用篇】用 OpenClaw + 飞书打造 7x24 小时服务器运维机器人

【大模型应用篇】用 OpenClaw + 飞书打造 7x24 小时服务器运维机器人

前言

本文基于OpenClaw,也是最近超火的可在本地运行的AI Agent网关,记录从零搭建通过飞书对话管理服务器运维机器人的全过程。该机器人支持随时随地通过飞书查看服务器状态、检索日志、管理进程,其核心机制在于:由OpenClaw将聊天平台(飞书等)的消息路由至大模型,模型调用本地工具(如Shell、文件系统、浏览器)执行相应任务,最终将结果自动返回至飞书会话中,实现自动化运维交互。

架构概览

飞书 App (WebSocket 长连接)
        ↕
OpenClaw Gateway (服务器上 systemd 常驻)
        ↕
AI 模型 (DeepSeek v3.2/GLM 4.7)
        ↕
服务器 Shell (受白名单限制的命令执行)

核心组件:

  • OpenClaw Gateway:Agent 网关,管理会话、工具调用、渠道连接
  • 飞书插件:通过 WebSocket 长连接收发消息,无需公网回调地址
  • exec 工具:让 AI 在服务器上执行 shell 命令,支持白名单安全策略
  • 模型提供商:支持自定义 OpenAI 兼容 API,本文使用 OneRouter 提供的 DeepSeek V3.2

环境要求

  • Linux 服务器(本文使用 Ubuntu)
  • Node.js 22+
  • npm 10+
  • 飞书企业账号(可免费创建)
  • AI 模型 API(OpenAI / Anthropic / OpenRouter / 自定义兼容接口均可)

第一步:安装 OpenClaw

由于需要让机器人直接管理服务器上的服务,选择 npm 全局安装(裸机安装),而不是 Docker:

npm install -g openclaw

安装后确认 openclaw 命令可用。如果提示 command not found,需要把 npm 全局 bin 目录加入 PATH:

echo 'export PATH="$HOME/.npm-global/bin:$PATH"' >> ~/.bashrc

source ~/.bashrc

第二步:注册为 systemd 服务

让 Gateway 开机自启、后台常驻:

openclaw gateway install

openclaw gateway start

验证状态:

openclaw gateway status

第三步:配置模型提供商

编辑 ~/.openclaw/openclaw.json,添加模型配置。以 OneRouter + DeepSeek V3.2 为例:

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "onerouter/deepinfra/deepseek-v3.2"
      }
    }
  },
  "models": {
    "mode": "merge",
    "providers": {
      "onerouter": {
        "baseUrl": "https://your-api-endpoint/v1",
        "apiKey": "your-api-key",
        "api": "openai-completions",
        "models": [
          {
            "id": "deepinfra/deepseek-v3.2",
            "name": "DeepSeek V3.2"
          }
        ]
      }
    }
  }
}

> 任何兼容 OpenAI API 格式的模型提供商都可以用这种方式接入。

第四步:接入飞书

4.1 创建飞书应用

访问 飞书开放平台,创建企业自建应用2在 凭证与基础信息 页面,记下 App ID 和 App Secret在 权限管理 中添加以下权限:im:message — 发送消息im:message:send_as_bot — 以机器人身份发送im:message.p2p_msg:readonly — 读取私聊消息im:message.group_at_msg:readonly — 读取群聊 @消息im:resource — 读取资源contact:contact.base:readonly — 读取联系人基本信息(可选,用于解析发送者名字)
    4. 在 应用能力 中启用 机器人

    5. 安装飞书插件:

          openclaw plugins install @openclaw/feishu

4.2 配置飞书app信息

使用 CLI 向导:

openclaw channels add

选择 Feishu,输入 App ID 和 App Secret。也可以手动在 openclaw.json 中添加:

{
  "channels": {
    "feishu": {
      "enabled": true,
      "accounts": {
        "main": {
          "appId": "cli_xxxxx",
          "appSecret": "your-app-secret"
        }
      }
    }
  }
}

4.3 重启并确认连接

openclaw gateway restart

openclaw logs --follow

看到以下日志说明飞书长连接成功:

feishu[main]: WebSocket client started
[ws] ws client ready

4.4 配置飞书事件订阅

回到飞书开放平台:

  1. 事件与回调 → 选 "使用长连接接收事件" → 保存
  2. 添加事件 im.message.receive_v1
  3. 版本管理与发布 → 创建版本 → 发布

> 注意:必须先启动 Gateway 建立长连接,飞书后台才能保存"长连接"订阅方式。

第五步:配置运维 Agent

5.1 设置 Agent 人设

编辑 ~/.openclaw/workspace/AGENTS.md,在原有内容基础上追加运维规则:

## 服务器运维规则

你同时是一个服务器运维助手,负责维护管理员在这台服务器上部署的服务。



### 工作范围
- 只管理 /home/youruser/projects 目录下的项目和服务
- 不要触碰其他用户的文件和服务



### 允许的操作
- 查看日志、进程、服务状态、端口、磁盘/内存
- 管理用户级服务(systemctl --user)
- 工作目录下的文件操作



### 禁止的操作
- rm -rf(用 trash 代替)
- sudo 操作(除非明确要求)
- 修改系统配置
- 重启其他用户的服务



### 语言
- 用中文回复

5.2 配置 exec 工具

在 openclaw.json 中添加工具配置,让 Agent 可以在服务器上执行命令:

{
  "tools": {
    "exec": {
      "host": "gateway",
      "security": "allowlist",
      "ask": "off"
    }
  }
}
  • host: "gateway" — 命令直接在服务器本机执行
  • security: "allowlist" — 只允许白名单命令,安全可控
  • ask: "off" — 不弹审批提示(7x24 自动化需要)

5.3 配置命令白名单

编辑 ~/.openclaw/exec-approvals.json,为 Agent 配置允许执行的命令:

{
  "version": 1,
  "defaults": {
    "security": "allowlist",
    "ask": "off",
    "askFallback": "allowlist"
  },
  "agents": {
    "main": {
      "security": "allowlist",
      "ask": "off",
      "askFallback": "allowlist",
      "allowlist": [
        { "pattern": "/usr/bin/bash" },
        { "pattern": "/usr/bin/sh" },
        { "pattern": "/usr/bin/ls" },
        { "pattern": "/usr/bin/cat" },
        { "pattern": "/usr/bin/tail" },
        { "pattern": "/usr/bin/head" },
        { "pattern": "/usr/bin/find" },
        { "pattern": "/usr/bin/du" },
        { "pattern": "/usr/bin/df" },
        { "pattern": "/usr/bin/free" },
        { "pattern": "/usr/bin/ps" },
        { "pattern": "/usr/bin/top" },
        { "pattern": "/usr/bin/ss" },
        { "pattern": "/usr/bin/netstat" },
        { "pattern": "/usr/bin/journalctl" },
        { "pattern": "/usr/bin/systemctl" },
        { "pattern": "/usr/bin/git" },
        { "pattern": "/usr/bin/docker" },
        { "pattern": "/usr/bin/node" },
        { "pattern": "/usr/bin/python3" }
      ]
    }
  }
}

> 重要:/usr/bin/bash 和 /usr/bin/sh 必须加上,否则带管道的命令无法执行。路径可能因系统而异,用 which <command> 确认。

第六步:测试

重启 Gateway 后在飞书里直接对机器人说话:

帮我看看服务器上哪些服务在运行

机器人会自动调用 systemctl、ps、ss 等命令,收集信息后返回一份结构化的服务器状态报告。

更多使用场景:

  • "查看 xxx 服务的最近日志"
  • "服务器磁盘还剩多少空间"
  • "帮我重启一下 xxx 服务"
  • "看看哪些端口在监听"

安全策略总结

层级措施说明
命令执行allowlist 白名单只允许指定的二进制文件
工作范围AGENTS.md 规则Agent 被指示只操作特定目录
飞书接入pairing 配对新用户需要管理员批准才能使用
系统权限非 root 运行Gateway 以普通用户身份运行

最终的 openclaw.json 结构

{
  "plugins": { "entries": { "feishu": { "enabled": true } } },
  "agents": {
    "defaults": {
      "model": { "primary": "your-provider/your-model" }
    }
  },
  "models": {
    "mode": "merge",
    "providers": { "...": "..." }
  },
  "tools": {
    "exec": {
      "host": "gateway",
      "security": "allowlist",
      "ask": "off"
    }
  },
  "channels": {
    "feishu": {
      "enabled": true,
      "accounts": {
        "main": {
          "appId": "cli_xxxxx",
          "appSecret": "your-secret"
        }
      }
    }
  },
  "gateway": { "mode": "local" }
}

参考材料

【1】https://github.com/openclaw/openclaw

【2】https://developer.aliyun.com/article/1710355

Read more

手把手教你用ClawdBot实现多语言翻译:Telegram机器人实战

手把手教你用ClawdBot实现多语言翻译:Telegram机器人实战 1. 这不是另一个“翻译bot”,而是一个能听、能看、能查的AI翻译官 你有没有过这样的经历:在Telegram群聊里,突然刷出一长段俄语技术文档,或者朋友发来一张日文菜单截图,又或者群里有人用西班牙语讨论旅行计划——你盯着屏幕,手指悬在键盘上,却不知从哪一步开始翻译? 市面上很多翻译机器人只能处理纯文字,要么要复制粘贴,要么要加特定前缀,群聊里一刷屏就彻底失联。更别说语音消息、图片里的小字、临时想查个汇率或天气,还得切出App再回来。 ClawdBot不一样。它不是“翻译插件”,而是你部署在自己设备上的个人AI翻译中枢——支持实时文字翻译、语音转写翻译、图片OCR翻译,还能顺手查天气、换算汇率、搜维基百科。所有能力都跑在本地,不上传隐私,不依赖境外API,连树莓派4都能稳稳扛住15人并发。 最关键的是:它真的只要一条命令就能跑起来。 这不是概念演示,也不是Demo环境。本文将带你从零开始,在自己的Linux服务器或本地电脑上,完整部署一个可立即投入日常使用的Telegram多语言翻译机器人。过程中不

从零开始:Xilinx FPGA驱动USB3.0外设手把手教程

从零开始:Xilinx FPGA驱动USB3.0外设实战全解析 当你的FPGA需要“飙”5 Gbps——为什么是现在? 你有没有遇到过这样的场景: FPGA采集了一堆高速数据,比如1080p@60fps的图像流,或者雷达回波信号,结果发现传输到PC的速度成了瓶颈?用传统UART、SPI甚至USB2.0?抱歉,它们早就跟不上节奏了。 这时候, USB3.0 (SuperSpeed USB)就成了那个“破局者”。它理论带宽高达 5 Gbps (约500 MB/s),实际稳定传输可达 350~400 MB/s —— 这意味着你能以接近实时的速度把一整帧未压缩的高清图像“甩”给上位机。而这一切,只需要一根常见的USB线缆。 但问题来了:如何让Xilinx FPGA真正掌控这条高速通道?不是挂个芯片就完事,而是要从物理层开始,亲手打通整个链路。本文不讲空话,

海尔智家设备接入HomeAssistant完整教程:打造智能家居生态圈

海尔智家设备接入HomeAssistant完整教程:打造智能家居生态圈 【免费下载链接】haier 项目地址: https://gitcode.com/gh_mirrors/ha/haier 还在为不同品牌智能设备无法协同工作而苦恼吗?想象一下这样的场景:海尔空调、冰箱、洗衣机各自为政,每次控制都要切换不同的APP,这种碎片化的体验是不是让你很抓狂?别担心,今天我将为你带来一份详尽的接入指南,让你的海尔设备真正融入智能家居大家庭! 为什么选择这个集成方案? 这个集成插件最大的优势在于它的兼容性和易用性。无论你是技术小白还是资深玩家,都能轻松上手。当前版本支持多种实体类型,包括开关、数值、选择器、传感器、二进制传感器、温控器等,基本覆盖了海尔智家的主流设备。 准备工作:确保一切就绪 在开始安装之前,请确保你拥有以下条件: * 正常运行的HomeAssistant系统 * 有效的海尔智家账号 * 设备在线且正常工作 安装方法大比拼:选最适合你的方式 方法一:HACS一键安装(新手推荐) 如果你已经安装了HACS,这是最简单快捷的方式。就像在应用商店下载APP

基于4G Cat.1模组的AI陪伴教育机器人:政策驱动下的算力与物联网融合新机遇

基于4G Cat.1模组的AI陪伴教育机器人:政策驱动下的算力与物联网融合新机遇

在万物互联与人工智能深度融合的“十五五”规划背景下,基于4G Cat.1模组的AI陪伴教育机器人正迎来历史性发展机遇。2025 年政府工作报告提出持续推进 “人工智能 +” 行动,支持大模型广泛应用;教育数字化已纳入国家战略部署,教育部等九部门《关于加快推进教育数字化的意见》明确将人工智能融入教育教学全要素全过程,推动智能教育装备普及与教育智能化升级。与此同时,工信部等六部门 2023 年联合印发的《算力基础设施高质量发展行动计划》提出,到 2025 年智能算力占比达到 35%,为教育 AI 终端与边缘计算提供坚实算力支撑。在政策与技术双重驱动下,4G Cat.1模组凭借低功耗、广覆盖、高性价比的核心优势,正成为AI教育机器人领域的“黄金连接载体”,为教育数字化转型提供稳定可靠的技术底座。 政策红利:算力与教育融合的“双轮驱动” “十五五”规划与最新政府工作报告为教育数字化转型提供了强有力的政策支撑,尤其对AI教育终端与算力基础设施的融合应用提出了明确方向与要求。 1. 国家战略层面:AI教育终端是重要应用方向 2025 年《政府工作报告》