OpenClaw多智能体路由实战:飞书多机器人配置指南

文章目录

目前我已经完成了OpenClaw的基本安装,但是在对话框只有一个,机器人也只绑定到主会话,一次只能处理一个消息。很多时候我在聊天窗口,说A任务,然后做了一半,又发了关于B任务的指令。一是每次发完消息,如果OpenClaw还在处理,剩下的消息要么进入队列、要么看不到(实际还在队列)。两个任务切来切去,感觉体验很不好。

要彻底解决这个问题,实现网上演示的那种对各Agent、每个对话机器人对应一个Agent,就需要用到多智能体路由技术。
实现的步骤如下:

  • 在飞书创建一个新的机器人
  • 通过控制台创建新的智能体
  • 按照指引将飞书配置上去
  • 根据需要创建多个Agent和机器人,并对应配置上去(略)

飞书重新安装问题

明明我已经安装好了飞书,系统还是会提示我安装,否则就跳过了添加飞书这步。应该是系统Bug。这次安装的飞书位置在~/.openclaw/extensions/feishu,其实和~/.npm-global/lib/node_modules/openclaw/extensions/feishu/是一样的,安装的方法不同而已。建议把.npm-global的删除。

请添加图片描述

第二次配置的时候,会把第一次飞书Channel给覆盖掉,具体看channels.feishu下面的配置。因为我们要实现每个Agent对应一个机器人,就必须要有多个feishu的机器人配置,而这里只有一个。

请添加图片描述


以下为OpenClaw自己配置的:

请添加图片描述

正确的如下,将多个机器人配置放在了channels.feishu.accounts下面,没办法只能手工改:

 "channels": { "feishu": { "enabled": true, "domain": "feishu", "groupPolicy": "allowlist", "accounts": { "main": { "appId": "cli_1", "appSecret": "appSecret1", "botName": "主助手", "groupAllowFrom": [ "ou_id1" ] }, "feishu-work": { "appId": "cli_2", "appSecret": "appSecret2", "botName": "工作助手", "groupAllowFrom": [ "ou_id2" ] }, }, "dmPolicy": "pairing" } }, "bindings": [ { "agentId": "main", "match": { "channel": "feishu", "accountId": "main" } }, { "agentId": "work", "match": { "channel": "feishu", "accountId": "feishu-work" #要与前面配置对应 } } ], 

注意事项:

  • 名称一定要对应,agentId对应,accountId也要对应
  • ou_id可以是相同(同一个人名下建立多个机器人),也可以不同(我就是这么干的)
请添加图片描述

效果就是这样。

请添加图片描述

回到Gateway的聊天窗口,就可以切换聊天的对象,我这有2个。(应该也有相关的配置的,找到之后更新)

请添加图片描述

批量增加机器人

一次性申请了6个机器人,确定好Agent的名称,让OpenClaw帮我完成配置。

  • BandBusiness,业务Agent
  • BandProjectMgr,项目经理Agent
  • BandProductMgr,产品经理Agent
  • BandSysDesign,系统设计Agent
  • BandCoder,系统开发Agent,严格来说,还可以继续拆分为前端、后端、安卓、iOS、鸿蒙等

BandTester,系统测试Agent
检查了一下,配置是对的,Agent的职责还做了扩展。重启openclaw gateway restart没问题。接下来需要给每个机器人添加事件,添加配对。

请添加图片描述


请添加图片描述

提示应用未建立长链接。原因是手工修改openclaw.json增加飞书渠道,并没有通过openclaw channels add增加。
发现在~/.openclaw/feishu/dedup少了些内容,但这并没有什么影响。
实测的总结是:必须在控制台完成对飞书机器人添加,才能起作用。而OpenClaw生成的openclaw.json还是对的,能让我的新机器人与Agent对应上。加上之后,还需要调整一下openclaw.json,删除错误的配置。
于是放心把其他的机器人都通过控制台添加上去,任务完美完成。

接下来我就可以创建一批智能体和机器人,并且让他们协同起来了。

缺点

飞书创建机器人的过程比较复杂,流程繁琐。好在我操作一遍之后,就可以按照之前的路径一直这样做下去。

多个飞书机器人名称包含大小写的问题

多个飞书账号时,名称中如果包含大小写,会遇到无法找到的问题。原因时飞书在处理的时候都改成了小写。为了避免类似问题,我将所有飞书的accountId改为小写。

多个Agent名称包含大小写的问题

当多个Agent相互调用的时候,我发现第一个Agent调用第二个Agent失败,仔细看聊天记录,发现OpenClaw把Agent的id全改为了小写。同样,为了规避此类问题,建议所有的Agent名称都时小写。
还可以在Agent的workspace名称发现一些端倪。
比如我的Agent名称为BandBusiness,系统自动分配的workspace名称为~/.openclaw/bandbusiness,全改为小写了。

关键词:OpenClaw 多智能体路由,飞书多机器人配置,OpenClaw bindings 绑定

Read more

百川2-13B-Chat WebUI v1.0 应用场景全解析:企业知识问答、编程辅导、多轮客服助手落地案例

百川2-13B-Chat WebUI v1.0 应用场景全解析:企业知识问答、编程辅导、多轮客服助手落地案例 1. 引言:当大模型走进企业,它能做什么? 如果你是一家公司的技术负责人,最近是不是经常听到同事讨论大模型?大家可能都在问:这东西到底能干什么?是只能聊聊天,还是真能帮我们解决实际问题? 今天,我们就来聊聊百川2-13B-Chat WebUI v1.0在实际工作中的应用。这不是一个简单的聊天机器人,而是一个经过4bit量化、显存占用仅10GB左右、能在消费级GPU上流畅运行的智能助手。更重要的是,它支持商用申请,这意味着你可以放心地把它用在企业环境中。 在过去几个月里,我们团队把这个模型部署在了多个实际场景中,从内部知识库问答到编程辅导,再到多轮客服对话。我发现,很多企业其实已经具备了使用这类工具的条件,只是不知道从哪里开始,或者担心效果不好。 这篇文章,我就来分享三个真实的落地案例,告诉你这个模型在实际工作中到底能发挥多大作用,以及具体怎么用。无论你是想提升团队效率,还是想探索AI在企业中的应用,相信都能从中获得启发。 2. 案例一:企业知识问答系统,让信息查

WebCoding 开发标准化流程

大家好,今天给大家分享的是WebCoding 开发标准化流程。 1. 需求定义 先把“要做什么”说清楚,再开始写代码。 你要产出这几样东西: * 业务目标:这个网站/系统解决什么问题 * 用户角色:谁在用 * 核心场景:用户完成任务的主路径 * 功能清单:必须有 / 可延期 * 验收标准:什么叫“做完了” 这一步最重要的是把需求写成 用户故事 + 验收条件。 例如: * 用户故事:用户可以注册并登录 * 验收条件:支持邮箱注册、密码重置、登录态保持 7 天、错误提示可读 标准输出: * PRD / 需求文档 * 用户流程图 * 功能优先级列表 * MVP 范围 2. 技术方案设计 需求确认后,不直接开写,而是先定技术方案。 通常要明确: * 前端:

开源视觉大模型GLM-4.6V-Flash-WEB在内容审核中的应用探索

开源视觉大模型GLM-4.6V-Flash-WEB在内容审核中的应用探索 如今,社交媒体、电商平台和短视频平台每天产生数以亿计的图文内容。一张看似普通的图片配上特定文字,可能暗藏诱导、欺诈甚至违法信息;而合成图像、深度伪造技术的普及,更让传统审核手段频频失守。仅靠关键词过滤或独立的图像识别系统,早已无法应对这些“图文协同作案”的新型风险。 正是在这种背景下,多模态大模型开始成为内容安全防线的核心力量。它们不仅能“看图识物”,还能理解图像与文本之间的语义关联,判断是否存在误导、隐喻或违规意图。智谱AI推出的 GLM-4.6V-Flash-WEB 正是这一趋势下的代表性开源成果——它不是追求参数规模的“巨无霸”,而是专注于高并发、低延迟、可私有化部署的轻量级视觉语言模型,特别适合真正要落地的内容审核场景。 从“看得见”到“读得懂”:GLM-4.6V-Flash-WEB 的能力跃迁 过去的内容审核系统大多采用“CV + NLP”分治架构:先用OCR提取图片中的文字,再用NLP模型分析语义;图像部分则依赖目标检测模型(如YOLO)识别敏感物体。这种流程看似完整,实则存在致命短板—

BAAI/bge-m3环境部署教程:从零配置到WebUI运行完整步骤

BAAI/bge-m3环境部署教程:从零配置到WebUI运行完整步骤 1. 学习目标与前置准备 本教程将带领您完成 BAAI/bge-m3 语义相似度分析引擎的完整部署流程,涵盖环境搭建、模型加载、服务启动及 WebUI 使用等关键环节。通过本文,您将能够: * 在本地或云服务器上成功部署 bge-m3 模型推理环境 * 理解基于 sentence-transformers 的文本向量化实现机制 * 启动并访问可视化 WebUI 界面进行语义相似度测试 * 验证 RAG 场景下的文本召回质量 1.1 前置知识要求 为确保顺利跟随本教程操作,请确认已掌握以下基础知识: * 基础 Linux 命令行使用能力(文件操作、权限管理) * Python 编程基础(了解 pip 包管理工具) * 对 NLP 中“文本嵌入”和“余弦相似度”有基本理解