openclaw 对接完飞书群机器人配置踩坑记:消息不回、Gateway 断开问题排查

openclaw 对接完飞书群机器人配置踩坑记:消息不回、Gateway 断开问题排查

前言

用 OpenClaw 配飞书机器人,踩了两个坑:群消息不回、Gateway 总是断开。排查了好一阵子,总算搞定了,记录一下希望能帮到遇到同样问题的朋友。


发现问题

飞书消息不回复

在飞书群里 @ 了机器人,完全没反应。一开始以为是网络不好或者机器人没上线,但状态显示明明是连接着的,这就奇怪了。

Gateway 频繁断开

每次改完配置跑 openclaw gateway restart,或者根本什么都没干,Gateway 说断就断。再想启动就报错,必须跑一遍 openclaw doctor --fix 重新安装才能用。太影响使用了。


查看原因

飞书机器人 ID 搞错了

翻日志看到这么一句:

receive events or callbacks through persistent connection only available in self-build & Feishu app 

查了一下,原来一开始配的那个 App ID(yyyyyyyyyyyyyy)是快捷版/小程序类型的飞书应用,这类不支持 WebSocket 长连接收消息。找运维要了正确的机器人 ID(xxxxxxxxxxxxxxxx),换上去果然就好了。

多机器人配置一直失败

想给运营 agent(yunying)单独配一个飞书机器人,试了很多次一直报"unknown channel id"。后来翻 OpenClaw 官方文档才发现,飞书多账号不是那么配的,得用 accounts 字段。

正确姿势:

{"channels":{"feishu":{"defaultAccount":"main","accounts":{"main":{"appId":"xxxxxxxxxxxxxxxx","appSecret":"abcdefghijklmnopqrstuvwxyz"},"yunying":{"appId":"yyyyyyyyyyyyyy","appSecret":"1234567890abcdef"}}}}}

然后 bindings 这么配:

{"bindings":[{"type":"route","agentId":"main","match":{"channel":"feishu","accountId":"main"}},{"type":"route","agentId":"yunying","match":{"channel":"feishu","accountId":"yunying"}}]}

Gateway 断开的原因

日志显示 Gateway 收到 SIGTERM 后正常关闭了,但 LaunchAgent 没自动重新加载。

后来才搞明白——我之前一直是跑 openclaw gateway 在前台启动,而不是用 LaunchAgent。虽然 LaunchAgent 配了 KeepAlive: true,但前台进程不受它管,断开后就死了,不会自动起来。


解决问题

飞书多账号配置

改完 ~/.openclaw/openclaw.json 的配置,重启 Gateway:

openclaw gateway restart 

两个机器人都连上了。日志能看出来:

feishu[yunying]: WebSocket client started feishu[main]: WebSocket client started 

Gateway 自动重启

简单说就是别跑 openclaw gateway,改用 LaunchAgent:

# 先停掉前台运行的 Gateway# 然后用 LaunchAgent 方式启动 openclaw gateway install openclaw gateway start 

以后 Gateway 就会受 LaunchAgent 管理,断开会自动重启,不用每次手动搞了。


踩过的坑

总结一下:

  1. 飞书多账号要用 accounts 字段配,别想着开多个渠道
  2. Gateway 一定要用 openclaw gateway start 启动,别直接跑 openclaw gateway

有其他问题欢迎评论区聊聊。

Read more

在魔乐社区使用llama-factory微调Qwen3.5-4B模型

在魔乐社区使用llama-factory微调Qwen3.5-4B模型

微调前期准备 下载qwen3.5-4B模型 # 首先保证已安装git-lfs(https://git-lfs.com)git lfs installgit clone https://modelers.cn/Qwen-AI/Qwen3.5-4B.git 下载Llama-factory git clone --depth1 https://gh.llkk.cc/https://github.com/hiyouga/LlamaFactory.git 微调环境搭建 我们依然是搭建一个miniconda #清除当前shell会话中的PYTHONPATH环境变量unset PYTHONPATH # 安装minicondawget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-aarch64.sh bash Miniconda3-latest-Linux-aarch64.sh conda config --set

AIGC与现代教育技术

AIGC与现代教育技术

目录 引言 一、AIGC在教育技术中的基本概念 1.1 什么是AIGC? 1.2 传统教育技术和AIGC的对比 二、实现过程:AIGC在现代教育中的实现 2.1 自动生成课件内容 2.1.1 代码示例:使用GPT生成教学文案 2.1.2 完善自动生成资料 2.1.3 多模态内容生成 2.2 数据高效分析和自动提供学习计划 2.2.1 数据学习分析 2.2.2 自动生成学习计划 三、应用场景 3.1 K12教育 示例:自动生成数学题目 3.2 高等教育

Llama-3.2-3B实战:用Ollama生成营销文案

Llama-3.2-3B实战:用Ollama生成营销文案 电商商家每天需要制作大量商品营销文案,人工撰写不仅耗时耗力,还难以保证创意和质量。本文将展示如何用Llama-3.2-3B模型快速生成高质量营销文案,让你的产品描述瞬间变得吸引人。 1. 快速上手:3分钟部署Llama-3.2-3B 不需要复杂的环境配置,不需要写代码,只需要简单几步就能开始使用这个强大的文案生成工具。 1.1 找到Ollama模型入口 打开你的Ollama界面,在模型选择区域找到入口。通常这里会显示当前可用的模型列表,如果还没有Llama-3.2-3B,需要先下载。 1.2 选择Llama-3.2-3B模型 在模型选择下拉菜单中,找到并选择【llama3.2:3b】。这个3B版本的模型在生成质量和运行速度之间取得了很好的平衡,特别适合营销文案生成任务。 1.3 开始使用模型 选择模型后,页面下方的输入框就会激活,你可以直接在这里输入你的需求,模型会立即生成相应的文案。 2. 营销文案生成实战案例 下面通过几个真实场景,展示Llama-3.2-3B在营销文案生成方面的强大能力。 2.1

vscode-copilot-chat调试指南:快速解决扩展运行问题

vscode-copilot-chat调试指南:快速解决扩展运行问题 【免费下载链接】vscode-copilot-chatCopilot Chat extension for VS Code 项目地址: https://gitcode.com/gh_mirrors/vs/vscode-copilot-chat vscode-copilot-chat作为VS Code的AI辅助扩展,在开发过程中可能因环境配置、依赖冲突或API变更导致运行异常。本文档系统梳理调试流程,覆盖环境准备、启动配置、日志分析、常见问题解决等核心环节,帮助开发者快速定位并修复问题。 开发环境准备 基础依赖检查 确保开发环境满足最低要求: * Node.js 22.x * Python 3.10-3.12 * Git LFS(用于测试资源拉取) * Windows需安装Visual Studio Build Tools 2019+ 通过以下命令验证环境: node -v # 应输出v22.