openclaw 对接完飞书群机器人配置踩坑记:消息不回、Gateway 断开问题排查

openclaw 对接完飞书群机器人配置踩坑记:消息不回、Gateway 断开问题排查

前言

用 OpenClaw 配飞书机器人,踩了两个坑:群消息不回、Gateway 总是断开。排查了好一阵子,总算搞定了,记录一下希望能帮到遇到同样问题的朋友。


发现问题

飞书消息不回复

在飞书群里 @ 了机器人,完全没反应。一开始以为是网络不好或者机器人没上线,但状态显示明明是连接着的,这就奇怪了。

Gateway 频繁断开

每次改完配置跑 openclaw gateway restart,或者根本什么都没干,Gateway 说断就断。再想启动就报错,必须跑一遍 openclaw doctor --fix 重新安装才能用。太影响使用了。


查看原因

飞书机器人 ID 搞错了

翻日志看到这么一句:

receive events or callbacks through persistent connection only available in self-build & Feishu app 

查了一下,原来一开始配的那个 App ID(yyyyyyyyyyyyyy)是快捷版/小程序类型的飞书应用,这类不支持 WebSocket 长连接收消息。找运维要了正确的机器人 ID(xxxxxxxxxxxxxxxx),换上去果然就好了。

多机器人配置一直失败

想给运营 agent(yunying)单独配一个飞书机器人,试了很多次一直报"unknown channel id"。后来翻 OpenClaw 官方文档才发现,飞书多账号不是那么配的,得用 accounts 字段。

正确姿势:

{"channels":{"feishu":{"defaultAccount":"main","accounts":{"main":{"appId":"xxxxxxxxxxxxxxxx","appSecret":"abcdefghijklmnopqrstuvwxyz"},"yunying":{"appId":"yyyyyyyyyyyyyy","appSecret":"1234567890abcdef"}}}}}

然后 bindings 这么配:

{"bindings":[{"type":"route","agentId":"main","match":{"channel":"feishu","accountId":"main"}},{"type":"route","agentId":"yunying","match":{"channel":"feishu","accountId":"yunying"}}]}

Gateway 断开的原因

日志显示 Gateway 收到 SIGTERM 后正常关闭了,但 LaunchAgent 没自动重新加载。

后来才搞明白——我之前一直是跑 openclaw gateway 在前台启动,而不是用 LaunchAgent。虽然 LaunchAgent 配了 KeepAlive: true,但前台进程不受它管,断开后就死了,不会自动起来。


解决问题

飞书多账号配置

改完 ~/.openclaw/openclaw.json 的配置,重启 Gateway:

openclaw gateway restart 

两个机器人都连上了。日志能看出来:

feishu[yunying]: WebSocket client started feishu[main]: WebSocket client started 

Gateway 自动重启

简单说就是别跑 openclaw gateway,改用 LaunchAgent:

# 先停掉前台运行的 Gateway# 然后用 LaunchAgent 方式启动 openclaw gateway install openclaw gateway start 

以后 Gateway 就会受 LaunchAgent 管理,断开会自动重启,不用每次手动搞了。


踩过的坑

总结一下:

  1. 飞书多账号要用 accounts 字段配,别想着开多个渠道
  2. Gateway 一定要用 openclaw gateway start 启动,别直接跑 openclaw gateway

有其他问题欢迎评论区聊聊。

Read more

Qwen-Image-2512:消费级GPU也能玩的AI绘画神器

Qwen-Image-2512:消费级GPU也能玩的AI绘画神器 还在为AI绘画动辄需要专业显卡和漫长等待而烦恼吗?今天要介绍的Qwen-Image-2512镜像,就是为普通玩家量身打造的“文生图”利器。它基于阿里通义千问团队的最新模型,不仅对中文提示词的理解能力超群,更通过一系列“黑科技”优化,让你用消费级GPU就能体验到秒级出图的畅快感。 想象一下,你刚冒出“一只穿着宇航服的猫在月球上弹吉他,梵高风格”这样的奇思妙想,几秒钟后,一张充满艺术感的画作就呈现在你眼前。这不再是专业工作室的专属,而是你坐在家里就能轻松实现的创作自由。接下来,我们就一起看看这个“极速文生图创作室”到底有多神奇。 1. 核心亮点:为什么说它是“神器”? Qwen-Image-2512镜像之所以能被称为“神器”,是因为它在性能、易用性和稳定性之间找到了一个完美的平衡点,尤其适合个人开发者和创意工作者。 1.1 通义千问深度赋能,懂你的“中国风” 很多AI绘画模型在处理英文提示词时表现优异,但一遇到中文就“水土不服”。Qwen-Image-2512的核心优势在于,它由阿里通义千问大模型深度赋能,对中

Phi-3-mini-128k-instruct Chainlit插件开发:添加思维链可视化、Token用量统计面板

Phi-3-mini-128k-instruct Chainlit插件开发:添加思维链可视化、Token用量统计面板 你是不是也遇到过这种情况?用Chainlit调用大模型,模型回答得挺好,但你心里总有个问号:它到底是怎么“想”出这个答案的?每次对话消耗了多少计算资源?如果能让模型的“思考过程”和“资源消耗”变得一目了然,那该多好。 今天,我们就来解决这个问题。我将手把手教你为基于vLLM部署的Phi-3-mini-128k-instruct模型,开发两个实用的Chainlit插件:思维链可视化面板和Token用量统计面板。通过这两个插件,你不仅能“看见”模型的推理路径,还能精确掌握每次对话的成本,让AI对话从“黑盒”走向“透明”。 1. 项目准备与环境确认 在开始插件开发之前,我们先确保基础环境已经就绪。你已经按照官方说明,成功部署了Phi-3-mini-128k-instruct模型,并且能够通过Chainlit前端正常调用。 1.1 验证模型服务状态 打开终端,使用Webshell检查模型服务日志,确认部署成功。 cat /root/workspace/llm.l

使用LLama.cpp本地部署大模型

摘要         llama.cpp是一个基于C/C++开发的高效大语言模型推理工具,支持跨平台部署和Docker快速启动,核心功能是在有限的计算资源情况下本地部署使用大模型。本文介绍了通过Docker方式部署llama.cpp的步骤,包括如何下载模型、CPU/GPU配置及启动参数说明。llama.cpp提供Web UI界面和OpenAI兼容API,支持文本和多模态对话,对电脑配置要求不高,完全免费且私密,让普通用户也能轻松在本地运行大语言模型。 LLama.cpp简介        1. llama.cpp 是一个在 C/C++ 中实现大型语言模型(LLM)推理的工具         2.支持跨平台部署,也支持使用 Docker 快速启动         3.可以运行多种量化模型,对电脑要求不高,CPU/GPU设备均可流畅运行。         支持模型包含:llama系列,qwen系列,gemma系列,Falcon、Alpaca、GPT4All、Chinese LLaMA、Vigogne、

Llama 3.1:本地部署

[1] Llama 3.1部署教程(非常详细)从零基础入门到精通,看完这一篇就够了 [2] 科学安装 Ollama [3] Ollama在Linux系统下配置国内镜像源加速模型下载 [4] Llama 3.1 介绍与部署流程、高效微调 部署服务器:H100 80G 模型:Llama-3.1-8B-Instruct 一、本地部署模型 通过huggingface下载模型:https://huggingface.co/meta-llama/Llama-3.1-8B 1. 创建conda虚拟环境(python版本3.10以上) conda create -n 环境名称 python==3.11 2. 激活环境 3. 在虚拟环境中安装Pytorch nvidia-smi # 查看CUDA版本