当 AI 开始「打工仔」模式:OpenClaw 指挥多个 Agent

当 AI 开始「打工仔」模式:OpenClaw 指挥多个 Agent

当 AI 开始「打工仔」模式:OpenClaw 指挥多个 Agent

你有没有想过:让一个 AI 帮你算数学题,再让另一个 AI 把结果翻译成英文?

这听起来有点「多此一举」——毕竟一个 AI 就能同时做这两件事。但有时候,把任务拆分开来让不同的独立的 Agent 处理,是后续处理复杂任务的必要条件。

今天就分享一次有趣的实验:用OpenClaw 和 两个 Agent 串联完成一个完整的工作流


前提条件

  • openclaw: 2026.2.3
  • 如果标记 😬,即用自然语言输入,在 webchat 中输入
  • 如果标记 💻,即用命令行输入

如果标记 🔧,即背后的命令,不用管

💡 提示:用户只需用自然语言描述需求,无需手动执行底层命令。底层命令仅供技术参考。

实验目标 🎯

使用 math-agent 计算数学表达式,然后把结果给 translator-agent 翻译成英文


实验过程 🚀

步骤 0:创建 相应的 agent 💻

$ openclaw agents add math-agent --workspace /home/admin/.openclaw/workspace --non-interactive --json $ openclaw agents add translator-agent --workspace /home/admin/.openclaw/workspace --non-interactive --json $ openclaw agents list - math-agent Identity: MY_NAME (IDENTITY.md) Workspace: ~/.openclaw/workspace Agent dir: ~/.openclaw/agents/math-agent/agent Model: minimax/MiniMax-M2.5-highspeed Routing rules: 0 - translator-agent Identity: MY_NAME (IDENTITY.md) Workspace: ~/.openclaw/workspace Agent dir: ~/.openclaw/agents/translator-agent/agent Model: minimax/MiniMax-M2.5-highspeed Routing rules: 0

步骤 1️⃣:单独调用 math-agent 计算

用户自然语言输入 😬:

利用 math-agent 计算表达式:(88 + 12) * 5 - 100 / 4,一步步计算出来

底层技术命令 🔧:

openclaw agent --agent math-agent --message"计算表达式:(88 + 12) * 5 - 100 / 4,一步步计算出来"

完整返回结果:

**计算表达式:`(88 + 12) * 5 - 100 / 4`** **步骤 1:** 括号内 - 88 + 12 = **100** **步骤 2:** 乘除法 - 100 × 5 = **500** - 100 ÷ 4 = **25** **步骤 3:** 减法 - 500 - 25 = **475** --- **最终答案:475** 

步骤 2️⃣:调用 translator-agent 翻译

用户自然语言输入 😬:

把上述结果 使用 translator-agent 翻译成英文

底层技术命令 🔧:

openclaw agent --agent translator-agent --message"翻译成英文:计算表达式:(88 + 12) * 5 - 100 / 4。步骤1:括号内 - 88 + 12 = 100。步骤2:乘除法 - 100 × 5 = 500,100 ÷ 4 = 25。步骤3:减法 - 500 - 25 = 475。最终答案:475"

完整返回结果:

Calculate the expression: (88 + 12) × 5 - 100 ÷ 4. Step 1: Parentheses — 88 + 12 = 100. Step 2: Multiplication & division — 100 × 5 = 500, 100 ÷ 4 = 25. Step 3: Subtraction — 500 - 25 = 475. **Final answer: 475** 

步骤 3️⃣:整合串联 (math-agent → translator-agent)

用户自然语言输入 😬:

使用 math-agent 计算表达式:(88 + 12) * 5 - 100 / 4,一步步计算出来,把结果给到 translator-agent 来得到翻译的结果

底层技术命令 🔧:

# 第1步:调用 math-agent openclaw agent --agent math-agent --message"计算表达式:(88 + 12) * 5 - 100 / 4,一步步计算出来"# 第2步:调用 translator-agent(传入上一步的结果) openclaw agent --agent translator-agent --message"翻译成英文:计算表达式:(88 + 12) * 5 - 100 / 4。步骤1:括号内 - 88 + 12 = 100。步骤2:乘除法 - 100 × 5 = 500,100 ÷ 4 = 25。步骤3:减法 - 500 - 25 = 475。最终答案:475"

第1步返回(math-agent):

**计算表达式:`(88 + 12) * 5 - 100 / 4`** **步骤 1:** 括号内 - 88 + 12 = **100** **步骤 2:** 乘除法 - 100 × 5 = **500** - 100 ÷ 4 = **25** **步骤 3:** 减法 - 500 - 25 = **475** --- **最终答案:475** 

第2步返回(translator-agent):

Calculate the expression: (88 + 12) × 5 - 100 ÷ 4. Step 1: Parentheses — 88 + 12 = 100. Step 2: Multiplication & division — 100 × 5 = 500, 100 ÷ 4 = 25. Step 3: Subtraction — 500 - 25 = 475. **Final answer: 475** 

结论

串联调用成功! math-agent → translator-agent 协同工作正常


思考 💡

这次实验虽然简单,但让我看到了 多 Agent 协作 的潜力:

  • 职责分离:每个 Agent 专注于自己的任务,更容易优化和维护
  • 灵活组合:可以根据需求自由组合不同的 Agent,形成定制化的工作流
  • 可扩展性:未来可以轻松添加更多的 Agent 来处理更复杂的任务
⚠️ 不同于增加一个 subagent (session_spawn)的方式,这种 agent 是有独立的配置文件和长久保存的。

如果你对 OpenClaw 感兴趣,可以关注我,后续会带来更多有趣的实验和玩法 🚀

#OpenClaw #AI #Agent #多Agent协作 #技术实验


欢迎添加公_主_号小兵张咔咔xiaobinzhangkaka,获取更多技术文章和资源。

Read more

(长期有效)接入第三方 OpenAI 兼容模型到 GitHub Copilot

目前 GitHub Copilot 仅支持接入国外的几家模型提供商,无法直接调用 OpenAI 兼容的自定义 API 进行扩展。参考相关解决方案,我总结了一下Copilot中接入OpenAI 兼容 API 的方法。 实现方法主要分为两种: 方案一:修改 Copilot Chat 源代码 在模型选择器中新增自定义提供商选项。 方案二:API 兼容适配 将 OpenAI 兼容的自定义 API 虚拟化封装为与 Ollama 兼容的 API(运行期间占用 Ollama 端口),从而利用 Copilot 模型选择器中原生的 Ollama 选项。 方法一(目前存在问题) 具体做法可参考修改Copilot chat插件增加自定义模型提供商 这里只说一下这个方法存在的问题: 1. 官方开源的Copilot chat插件版本通常滞后于最新版,可能存在未来兼容性问题 2.

昇腾NPU运行Llama模型全攻略:环境搭建、性能测试、问题解决一网打尽

昇腾NPU运行Llama模型全攻略:环境搭建、性能测试、问题解决一网打尽

背景 最近几年,AI 大模型火得一塌糊涂,特别是像 Llama 这样的开源模型,几乎成了每个技术团队都在讨论的热点。不过,这些"巨无霸"模型虽然能力超强,但对硬件的要求也高得吓人。这时候,华为的昇腾 NPU 就派上用场了。 说实话,昇腾 NPU 在 AI 计算这块确实有两把刷子。它专门为神经网络计算设计,不仅算力强劲,功耗控制得也不错,最关键的是灵活性很好,可以根据不同场景进行裁剪。所以,用它来跑大模型推理,理论上应该是个不错的选择。 为什么偏偏选了 Llama 来测试? 说到 Llama,这玩意儿现在可是开源界的"网红"。Meta 把它完全开源出来,社区生态搞得风生水起,各种优化和适配层出不穷。 其实选择 Llama 做测试,主要有这么几个考虑:

大模型本地部署神器:llama.cpp使用介绍

大模型本地部署神器:llama.cpp使用介绍

介绍llama.cpp 本节主要介绍什么是llama.cpp,以及llama.cpp、llama、ollama的区别。同时说明一下GGUF这种模型文件格式。 什么是llama.cpp llama.cpp是一个由Georgi Gerganov开发的高性能C++库,主要目标是在各种硬件上(本地和云端)以最少的设置和最先进的性能实现大型语言模型推理。 主要特点: * 纯C/C++实现,没有任何依赖 * 对Apple Silicon(如M1/M2/M3芯片)提供一流支持 - 通过ARM NEON、Accelerate和Metal框架优化 * 支持x86架构的AVX、AVX2、AVX512和AMX指令集 * 支持1.5位、2位、3位、4位、5位、6位和8位整数量化,实现更快的推理和更低的内存使用 * 为NVIDIA GPU提供自定义CUDA内核(通过HIP支持AMD GPU,通过MUSA支持摩尔线程MTT GPU)

【AIGC】即梦omnihuaman-api调用实现

即梦数字人视频生成(Streamlit Demo) 基于 火山引擎即梦(Jimeng)CV API 的数字人视频生成示例项目。 支持 图片 + 音频驱动 的数字人视频生成流程,集成了主体检测、Mask 选择、Prompt 控制、视频生成与下载等完整功能,适合 内部测试 / 技术演示 / 二次开发。 一、功能概览 ✅ 核心功能 * 🔐 AK / SK 在线填写 * 支持火山引擎 Access Key / Secret Key 在页面中直接输入 * 无需写死在代码中,便于多账号切换 * api key申请地址:https://console.volcengine.com/iam/keymanage * 🖼 图片上传(人物图像) * 支持 JPG / PNG