openclaw多agent对接飞书机器人

        本文介绍了基于飞书的多Agent系统架构设计,通过OpenClaw Gateway实现飞书应用与AI Agent的对接。系统采用多Agent架构,每个飞书机器人对应独立的AI Agent,拥有专属的工作空间、知识库和模型配置。

        本文可以参考的内容:

  • 多agent对接单个飞书账号
  • openclaw多agent群聊
  • 飞书机器人群聊
  • 多agent数据隔离
  • 多agent单独安装skills

        隔离性说明:

  • 每个 Agent 的模型状态完全独立
  • 每个 agent 对应一个飞书机器人
  • 每个 agent 的技能单独安装维护
  • 模型切换仅对当前会话生效(持久化到 Agent 配置)
  • 严格隔离:每个 Agent 独立 workspace 和 data

添加新的 agent

# 添加agent openclaw agents add finance_agent #openclaw agents add code_agent # 设置身份 openclaw agents set-identity --agent code_agent --name "全栈开发专家" #openclaw agents set-identity --agent main --name "OpenClaw" --emoji "🦞" --avatar avatars/openclaw.png # 查看agents 列表 openclaw agents list 

安装过程

cobrew@DESKTOP-9449JCG:~$ openclaw agents add finance_agent ?? OpenClaw 2026.3.13 (61d171a) ? Your AI assistant, now without the $3,499 headset. ┌ Add OpenClaw agent │ ◇ Workspace directory │ /home/cobrew/.openclaw/workspace-finance_agent │ ◇ Copy auth profiles from "main"? │ Yes │ ◇ Auth profiles ─────────────────────? │ │ │ Copied auth profiles from "main". │ │ │ ├─────────────────────────────────────? │ ◇ Configure model/auth for this agent now? │ Yes │ ◇ Model/auth provider │ Xiaomi │ ◇ How do you want to provide this API key? │ Paste API key now │ ◇ Enter Xiaomi API key │ sk-cidvhi74xqwlq388the6i9ds0mfru4qn0llzpux1hx54idq8 │ ◇ Model configured ─────────────────────────────────────────────────────? │ │ │ Default model set to xiaomi/mimo-v2-flash for agent "finance_agent". │ │ │ ├────────────────────────────────────────────────────────────────────────? │ ◇ Model check ──────────────────────────────────────────────────────────────────────────────? │ │ │ Model not found: xiaomi/mimo-v2-flash. Update agents.defaults.model or run /models list. │ │ │ ├────────────────────────────────────────────────────────────────────────────────────────────? │ ◇ Channel status ────────────────────────────? │ │ │ Telegram: needs token │ │ WhatsApp (default): not linked │ │ Discord: needs token │ │ Slack: needs tokens │ │ Signal: needs setup │ │ signal-cli: missing (signal-cli) │ │ iMessage: needs setup │ │ imsg: missing (imsg) │ │ IRC: not configured │ │ Google Chat: not configured │ │ LINE: not configured │ │ Feishu: install plugin to enable │ │ Google Chat: install plugin to enable │ │ Nostr: install plugin to enable │ │ Microsoft Teams: install plugin to enable │ │ Mattermost: install plugin to enable │ │ Nextcloud Talk: install plugin to enable │ │ Matrix: install plugin to enable │ │ BlueBubbles: install plugin to enable │ │ LINE: install plugin to enable │ │ Zalo: install plugin to enable │ │ Zalo Personal: install plugin to enable │ │ Synology Chat: install plugin to enable │ │ Tlon: install plugin to enable │ │ │ ├─────────────────────────────────────────────? │ ◇ Configure chat channels now? │ No Config overwrite: /home/cobrew/.openclaw/openclaw.json (sha256 4b6fcbb9743eb0a8611264043008a59e472a4763a3a9a0a6fc7d5814cbe385ff -> 96c54ca4424a3515bc743203fa8e6ef23580613b630be1f06dad8cdf09c6137b, backup=/home/cobrew/.openclaw/openclaw.json.bak) Updated ~/.openclaw/openclaw.json Workspace OK: ~/.openclaw/workspace-finance_agent Sessions OK: ~/.openclaw/agents/finance_agent/sessions │ └ Agent "finance_agent" ready. cobrew@DESKTOP-9449JCG:~$ 

配置过程

cobrew@DESKTOP-9449JCG:~$ openclaw agents add code_agent 🦞 OpenClaw 2026.3.13 (61d171a) — WhatsApp automation without the "please accept our new privacy policy". 11:32:30 [plugins] plugins.allow is empty; discovered non-bundled plugins may auto-load: feishu (/home/cobrew/.npm-global/lib/node_modules/openclaw/extensions/feishu/index.ts). Set plugins.allow to explicit trusted ids. 11:32:57 [plugins] feishu_doc: Registered feishu_doc, feishu_app_scopes 11:32:57 [plugins] feishu_chat: Registered feishu_chat tool 11:32:57 [plugins] feishu_wiki: Registered feishu_wiki tool 11:32:57 [plugins] feishu_drive: Registered feishu_drive tool 11:32:57 [plugin

Read more

从零到一:Ubuntu上llama.cpp的编译艺术与性能调优实战

从零到一:Ubuntu上llama.cpp的编译艺术与性能调优实战 在人工智能技术快速发展的今天,大型语言模型(LLM)已成为开发者工具箱中不可或缺的一部分。而llama.cpp作为一款高效、轻量级的LLM推理框架,因其出色的性能和跨平台支持,越来越受到开发者的青睐。本文将带您深入探索在Ubuntu环境下编译和优化llama.cpp的全过程,从基础环境搭建到高级性能调优,为您呈现一套完整的解决方案。 1. 环境准备与基础编译 在开始编译llama.cpp之前,我们需要确保系统环境满足基本要求。Ubuntu 22.04 LTS是最推荐的系统版本,它提供了稳定的软件包支持和良好的兼容性。 首先更新系统并安装必要的开发工具: sudo apt update && sudo apt upgrade -y sudo apt install -y build-essential cmake git curl libcurl4-openssl-dev 对于希望使用CUDA加速的用户,还需要安装NVIDIA驱动和CUDA工具包: sudo apt install

免费降AI率终极指南:6款实测有效的降AI工具合集,论文降AIGC一键搞定

免费降AI率终极指南:6款实测有效的降AI工具合集,论文降AIGC一键搞定

“我发誓,这部分真的是我自己写的,为什么AI率还是70%?!” 相信我,这个哀嚎,是2025-2026年毕业季每个论文党的噩梦。 你可能只是用AI开了个头、润色了几个句子,或者干脆就是自己苦思冥想写出来的,但检测报告一出来,那刺眼的“高AIGC风险”瞬间让人血压飙升。于是你开始最原始的手动降AI:替换同义词、颠倒句子顺序、中英文翻译……折腾一晚上,降AI率微乎其微,还把原文改得支零破碎 我花了两周实测了市面上主流的6款工具。今天这篇不是广告合集,而是一份帮你“排雷”和“种草”的实战红黑榜。目标只有一个:帮你找到能真正降低AI率,同时保留学术调性、不毁格式的毕业神器。 1、笔灵 综合评价: 如果你时间紧迫,只想要一个“能打”的、最省心的方案,可以直接选它。 传送门:https://ibiling.cn/paper-pass?from=ZEEKLOGjiangaislcs(建议电脑打开) 我的论文是教育学方向的,初稿AI率高达83%

FLUX.2[klein]开源!小香蕉平替,本地部署AI绘画的极简方案

FLUX.2[klein]开源!小香蕉平替,本地部署AI绘画的极简方案

文章目录 * 前言 * 一、FLUX.2[klein]到底香在哪? * 二、部署前准备:硬件+环境一键搞定 * 1. 硬件要求(最低配置) * 2. 环境安装(3行命令搞定) * 三、极简部署方案:2种方式任选(新手首选方式1) * 方式1:Python脚本一键运行(纯代码,无界面,最快上手) * 步骤1:创建运行脚本 * 步骤2:运行脚本 * 方式2:ComfyUI可视化部署(适合喜欢拖拽操作的用户) * 步骤1:安装ComfyUI * 步骤2:下载FLUX.2[klein]模型 * 步骤3:启动ComfyUI并加载工作流 * 四、常见问题&优化技巧 * 1. 显存不足怎么办? * 2. 模型下载慢/

【保姆级教程】llama.cpp大模型部署全攻略:CPU/GPU全兼容,小白也能轻松上手!

【保姆级教程】llama.cpp大模型部署全攻略:CPU/GPU全兼容,小白也能轻松上手!

一、简介 * • llama.cpp 是一个在 C/C++ 中实现大型语言模型(LLM)推理的工具 * • 支持跨平台部署,也支持使用 Docker 快速启动 * • 可以运行多种量化模型,对电脑要求不高,CPU/GPU设备均可流畅运行 * • 开源地址参考:https://github.com/ggml-org/llama.cpp • 核心工作流程参考: 二、安装与下载模型(Docker方式) 1. 搜索可用模型 • 这里以 qwen3-vl 模型为例,提供了多种量化版本,每种版本的大小不一样,根据自己的电脑性能做选择,如选择(模型+量化标签):Qwen/Qwen3-VL-8B-Instruct-GGUF:Q8_0 • 可以在huggingface官网中搜索可用的量化模型:https://huggingface.co/models?search=