OpenClaw 多 Agent 协作实践:用三个 AI 组成一个写作团队

OpenClaw 多 Agent 协作实践:用三个 AI 组成一个写作团队

很多人用 AI 的方式是 一个模型干所有事

但现实世界里,复杂任务往往是 多角色协作

比如写一篇文章:

  • 有人负责 头脑风暴
  • 有人负责 写作
  • 有人负责 统筹调度

OpenClaw 的 Multi-Agent 架构 正好可以实现这一点。

这篇文章带你从 0 到 1 搭建一个 三 Agent 协作系统

用户 │ ▼ Coordinator(协调官) ├── Brainstorm(脑暴搭子) └── Writer(写作助手) 

并通过 飞书群 实现真实的协作体验。


一、架构设计

我们创建三个 Agent:

Agent角色职责
brainstorm脑暴搭子创意发散
writer写作助手文章创作
coordinator协调官任务调度

任务流程:

用户 ↓ Coordinator ↓ Brainstorm(创意发散) ↓ Writer(内容写作) ↓ Coordinator(整合结果) ↓ 返回用户 

二、创建多个 Agent

通过 CLI 创建三个独立 Agent。

创建 Brainstorm Agent

openclaw agents add brainstorm --model zai/glm-4.5-air --workspace ~/.openclaw/workspace-brainstorm 

设置身份:

openclaw agents set-identity --agent brainstorm --name"脑暴搭子"--emoji"💡"

创建 Writer Agent

openclaw agents add writer --model zai/glm-4.5-air --workspace ~/.openclaw/workspace-writer 

设置身份:

openclaw agents set-identity --agent writer --name"写作助手"--emoji"✍️"

创建 Coordinator Agent

openclaw agents add coordinator --model zai/glm-4.5-air --workspace ~/.openclaw/workspace-coordinator 

设置身份:

openclaw agents set-identity --agent coordinator --name"协调官"--emoji"🎯"

三、验证 Agent 创建

执行:

openclaw agents list 

如果成功,你会看到类似:

brainstorm writer coordinator 

四、给 Agent 设置"人格"(SOUL.md)

每个 Agent 都有自己的 工作方式和风格

OpenClaw 通过 SOUL.md 定义。

Brainstorm Agent

路径:

~/.openclaw/workspace-brainstorm/SOUL.md 
# Brainstorm Partner ## 角色 你是用户的脑暴搭子,负责一起思考,而不是直接给答案。 ## 思维方式 ### 先扩散,再收敛 优先给出 3-5 个不同方向的思路。 ### 多提问题 如果问题不清晰,先提关键问题。 ### 类比解释 复杂概念优先用简单类比。 ### 鼓励反直觉 提出跨领域想法。 

Writer Agent

路径:

~/.openclaw/workspace-writer/SOUL.md 
# Writer Agent ## 角色 资深公众号写作专家。 ## 风格 - 开头必须有故事或反直觉观点 - 段落短小 - 善用类比 - 结尾有 CTA ## 禁忌 - 不使用空洞词 - 不堆砌术语 

Coordinator Agent

路径:

~/.openclaw/workspace-coordinator/SOUL.md 
# Main Agent ## 角色 团队协调官。 ## 职责 1 接住需求 2 调度 Agent 3 质量把控 4 串联流程 ## 调度规则 头脑风暴 → @brainstorm 文章写作 → @writer 简单问答 → 自己回答 

五、绑定飞书群

创建三个飞书群:

brainstorm writer coordinator 

把机器人拉入群。

修改:

~/.openclaw/openclaw.json 

配置:

"bindings":[{"agentId":"brainstorm","match":{"channel":"feishu","peer":{"kind":"group","id":"oc_4b02..."}}},{"agentId":"writer","match":{"channel":"feishu","peer":{"kind":"group","id":"oc_c6330..."}}},{"agentId":"coordinator","match":{"channel":"feishu","peer":{"kind":"group","id":"oc_dd55..."}}}]

六、开启 Agent 间通信

~/.openclaw/openclaw.json 中添加:

"tools":{"agentToAgent":{"enabled":true,"allow":["coordinator","brainstorm","writer"]}}

七、测试多 Agent 协作

coordinator 群

@openclaw 帮我写一篇关于人工智能的科普文章 面向中学生 400字 先 brainstorm 再 writer 

八、协作执行流程

用户请求 ↓ Coordinator ↓ Brainstorm(生成创意) ↓ Writer(写文章) ↓ Coordinator 汇总 

九、最终效果

生成文章示例:

探索人工智能的奇妙世界 人工智能(AI)就像一个会思考的超级大脑, 正在悄悄改变我们的生活。 比如手机语音助手、 智能翻译软件、 游戏里的AI对手。 医生用AI辅助诊断, 机器人在工厂工作。 未来, AI需要更多年轻人参与。 

文章同时保存到:

workspace-coordinator/ai_article.md 

十、总结

我们实现了一个 三 Agent AI 团队

Coordinator ├── Brainstorm └── Writer 

特点:

  • 每个 Agent 有 独立人格
  • 每个 Agent 有 独立 workspace
  • Coordinator 负责 任务调度
  • 通过 Feishu 实现真实协作

这种架构本质是:

AI Team Architecture

Read more

ofd.js终极指南:前端OFD文件解析与渲染完整解决方案

在数字化浪潮席卷各行各业的今天,OFD(Open Fixed-layout Document)作为中国自主可控的版式文档标准,正迅速成为电子发票、电子公文、电子档案等领域的首选格式。然而,传统OFD处理方案往往需要复杂后端支持,增加了系统复杂性和部署成本。🚀 【免费下载链接】ofd.js 项目地址: https://gitcode.com/gh_mirrors/of/ofd.js 痛点剖析:为什么传统方案不够好? 部署复杂:传统方案依赖服务器端渲染,增加了运维负担 响应延迟:网络传输导致文档预览体验不佳 兼容性差:不同浏览器和设备上的表现不一致 成本高昂:需要购买昂贵的商业软件或开发复杂的后端服务 💡 这正是ofd.js诞生的意义所在——提供一套纯前端的OFD文件解析与渲染方案,让开发者能够在浏览器中直接处理OFD文档,无需任何后端依赖。 解决方案:ofd.js如何改变游戏规则? 核心技术架构解密 ofd.js采用模块化设计,将复杂功能拆分为多个独立模块: 模块类别核心文件主要功能解析引擎ofd_parser.jsOFD文件结构解析与数据提取渲染引擎ofd_

网页抓取(Web Scraping)完整技术指南:从原理到实战

在数据驱动的时代,结构化信息已成为企业决策、AI 训练与市场分析的核心资源。网页抓取(Web Scraping) 作为从非结构化网页中提取结构化数据的关键技术,广泛应用于电商、金融、舆情监测、学术研究等领域。 本文将系统解析网页抓取的工作原理、工具链、反爬对抗策略与法律边界,并提供可落地的工程建议。 一、什么是网页抓取? 网页抓取是指通过程序自动访问网页,解析 HTML/JSON 内容,并将目标数据提取、转换为结构化格式(如 CSV、数据库记录)的过程。 与网络爬虫(Crawler)的区别:爬虫:广度优先遍历全站链接(如搜索引擎);抓取:深度聚焦特定页面的数据字段(如商品价格、评论)。 典型应用场景包括: * 电商比价(Amazon、Shopee 商品监控) * 招聘数据聚合(职位趋势分析) * 社交媒体舆情监测(公开评论情感分析) * 学术数据采集(论文元数据批量下载)

DeepSeek-R1-Distill-Qwen-1.5B从零部署:vLLM+Open-WebUI环境搭建教程

DeepSeek-R1-Distill-Qwen-1.5B从零部署:vLLM+Open-WebUI环境搭建教程 1. 为什么这款“小钢炮”值得你花30分钟装一遍 你有没有试过在一台只有4GB显存的旧笔记本上,跑一个数学推理能力接近80分(MATH数据集)、还能写Python函数、支持JSON输出、响应速度超过200 tokens/s的模型?不是幻想——DeepSeek-R1-Distill-Qwen-1.5B 就是这么个“反常识”的存在。 它不是参数堆出来的巨无霸,而是用80万条高质量R1推理链,对通义千问Qwen-1.5B做深度蒸馏后的成果。15亿参数,fp16整模仅3.0 GB;量化到GGUF-Q4后压缩至0.8 GB,连树莓派5或RK3588嵌入式板卡都能稳稳扛住。更关键的是:Apache 2.0协议,商用免费,不设门槛。 这不是“能跑就行”的玩具模型。它在MATH上拿80+、HumanEval超50、推理链保留率85%,日常写脚本、解方程、读文档、调API完全够用。

用 Vue 3 重构 Dify 聊天前端(上篇):项目搭建与基础架构

用 Vue 3 重构 Dify 聊天前端(上篇):项目搭建与基础架构

本系列教程将带你从零开始,用 Vue 3 + TypeScript 复刻一个类似 Dify 的 AI 聊天前端。上篇聚焦项目搭建、类型设计、路由认证、HTTP 封装和状态管理。 项目简介 背景 Dify 是一个开源的 LLM 应用开发平台,提供了对话式 AI 的后端服务。在实际项目中,我们往往需要自建前端来对接Dify后端 API或LLM后端服务,实现定制化的聊天界面。 本项目的目标:用 Vue 3 构建一个生产级的 AI 聊天前端,具备以下能力: * SSE 流式输出(打字机效果) * Markdown 渲染 + 代码高亮 * 用户认证 * 文件/图片上传 * 聊天会话历史管理 * 工作流执行可视化 * Agent 思考过程展示 * 移动端响应式适配