阿里开源 OpenClaw:5分钟本地搞定多 Agent 团队!

大家好,我是玄姐。

阿里开源 Team 版 OpenClaw:HiClaw 发布,5分钟本地搞定多 Agent 团队!

作为模型服务的新入口,OpenClaw 曾凭借强大的自动化能力(写代码、查邮件、操作 GitHub、设置定时任务)让无数开发者大呼过瘾。这种通过 IM 直接下发指令的交互创新,确实带来了极大的“爽感”。

但是,随着你的指令积压、Long Horizon(长周期)项目越来越多,原生 OpenClaw 的短板开始暴露:

  • 安全风险在裸奔:每个 Agent 都要配置自己的 API Key。GitHub PAT、LLM Key 散落各处。2026年初的漏洞事件提醒我们,这种 "self-hackable" 架构极易造成凭证泄露。
  • 记忆爆炸与 Token 刺客:一个 Agent 既当爹又当妈(前端、后端、写文档)。skills/ 越来越乱,MEMORY.md 混杂海量记忆,每次加载都要塞入大量无关上下文,既浪费 Token,又容易让 AI “精神分裂”。
  • 多 Agent 协作像在“带娃”:手动配置 SubAgent、手动分配任务、手动同步进度……你本想专注业务,结果却成了 Agent 的全职保姆。
  • 移动端体验门槛极高:想在手机上随时随地指挥 Agent?对不起,飞书、钉钉的机器人接入审批流程能让你等到绝望。
  • 配置门槛劝退新手:光是安装、配置到跑通,资深程序员也得折腾大半天(某鱼甚至出现了付费代装服务)。

如果你也深有同感,那么今天的主角:HiClaw,就是为你量身打造的。


一、HiClaw 究竟是什么?

HiClaw = OpenClaw 超进化,你可以把它理解为 Team 版的 OpenClaw。

它的核心创新在于引入了 Manager Agent(AI 管家)角色。它不直接干脏活累活,而是帮你管理底下的 Worker Agent 团队,就像钢铁侠的智能管家贾维斯。

你的本地环境:

Manager Agent (AI 管家)
 ➡️ 负责管理、拆解任务、分派

⬇️

Worker Alice (前端) | Worker Bob (后端) | Worker... (数据/运营)

作为真人管理员,你只需做决策,不再当保姆。这套系统支持灵活的模式切换:

  • 模式一:直接对话 Manager。适合快速问答和简单操作,Manager 自己随手就办了。
  • 模式二:Manager 分派 Worker。面对复杂项目,Manager 自动拆解任务并分配给专业的 Worker。每个 Worker 拥有独立的技能(Skills)和记忆(Memory),物理隔离,互不污染。

二、直击痛点:HiClaw 的四大架构革新

1. 终结安全焦虑:Worker 永远不碰真实凭证

在原生 OpenClaw 中,一旦 Agent 被攻击,你的 API Key 就会直接暴露。

HiClaw 引入了 AI Gateway 机制:真实的 API Key、GitHub PAT 等凭证全部由网关统一收口。

  • Worker 视角:只能看到任务文件、工作目录和一张“门禁卡”(Consumer Token)。它看不到你的 LLM Key,也看不到任何加密凭证。
  • 调用外部服务:全部通过 Gateway 代理。
  • 技能生态放心用:HiClaw 内置了 find-skills 技能。当 Worker 缺工具时,会主动去 80,000+ 的开源技能库搜索并安装。由于 Worker 运行在安全沙箱且无真实凭证,你可以放心大胆地让它自主扩展能力。如果是企业用户,只需配置 SKILLS_API_URL 即可无缝切换到内部私有技能库。

2. 告别记忆爆炸:引入 MinIO 共享文件系统

Agent 之间交换代码、文档等中间产物,如果全发在群聊里,Token 成本和延迟都会爆炸。

HiClaw 巧妙地采用了双轨制:

  • Matrix 群聊房间:只保留有意义的沟通、汇报和决策记录(保持上下文精简)。
  • 底层 MinIO 共享文件系统:用于存储代码、文档、临时数据等大量中间产物(不污染群聊)。

算一笔经济账:

假设一个项目需要 3 次代码开发(需使用强大的 Sonnet 模型,每次 50k tokens)和 10 次普通信息收集(需 100k tokens)。

  • 原生 OpenClaw(混杂在一起,统一用高阶模型):总计约 $3.45。
  • HiClaw(按任务分配模型,区分轻重):代码用 Sonnet,信息收集分配给便宜的模型(如 Haiku),总计约$0.70。

直接节省 80% 成本,且代码质量不打折!

3. 多 Agent 高效协作:基于 Matrix 的 Swarm 架构

HiClaw 在 Manager-Worker 的 Supervisor 架构基础上,通过底层的 Matrix 群聊房间实现了 Swarm(蜂群)架构的优势。

  • 上下文共享:Alice(前端)在群里说进度,Bob(后端)自动就能看到,无需重复沟通。
  • 防惊群设计:避免群里每句话都触发全员 LLM 调用。规则很简单:Agent 只有被 @ 的时候才会被唤醒。
  • Human in the Loop(人在环路):一切协作在群聊中可见,发现进度走偏,你可以随时 @ 对应的 Agent 进行人工干预。

4. 极致的移动端体验:开箱即用的内置 IM

HiClaw 抛弃了繁琐的微信/飞书/钉钉企业机器人接入,直接内置了 Tuwunel Matrix Server。

下载 Matrix 客户端(如 Element Mobile 或 FluffyChat),连上你的服务器,随时随地在手机上指挥你的 AI 团队干活。消息实时推送,对话全程透明。


三、All-in-One 架构设计:5分钟极速安装

原生 OpenClaw 像是一台需要你自己买显卡(LLM)、配显示器(Channel)、装驱动的“组装机”。而 HiClaw 是一台开箱即用的“MacBook”。

它打包了:OpenClaw (大脑) + Higress AI Gateway (神经中枢) + Tuwunel Matrix (感知器官) + MinIO (海马体)。

一键安装脚本:

macOS / Linux:

bash <(curl -sSL https://higress.ai/hiclaw/install.sh)

Windows(PowerShell 7+):

Set-ExecutionPolicy Bypass -Scope Process -Force; Invoke-Expression ((New-Object System.Net.WebClient).DownloadString('https://higress.ai/hiclaw/install.ps1'))

脚本会自动智能检测时区选择镜像、使用 Docker 容器化封装屏蔽系统差异,你只需要准备一个 LLM API Key 即可启动!

图片

四、Showcase:躺在沙发上,看着 AI 团队开发 SaaS

假设你想开发一款 AI 写作助手 MVP,体验一下 HiClaw 的震撼工作流:

: 帮我创建 4 个 Worker:alex(产品), sam(全栈开发), taylor(内容运营), jordan(数据分析)

Manager: 好的,4 个 Worker 已创建。

: 启动项目:AI 写作助手 MVP,下周要上线

Manager: 收到,我来规划项目... [创建项目群,邀请全员,输出分为产品定义、开发、上线三阶段的 Phase 计划]... 确认后我开始分配任务。

: 确认

Manager: @alex 你有新任务 [task-001]:竞品调研 & PRD...

(1小时后)
alex

: @manager task-001 完成。PRD 结果已存入:

~/hiclaw-fs/shared/tasks/task-001/result.md

Manager

: [读取状态] @sam 你有新任务 [task-002]:技术选型 &amp; 架构,参考 PRD。@taylor 你有新任务 [task-005]:发布素材准备...

(后续 sam 完成开发部署,alex 介入验收,提出修改意见,Manager 自动创建修订任务发给 sam...)

Manager

: @你 MVP 开发完成!代码已部署,验收通过,发布素材就绪。
你: 准备上线。@taylor 明天 Product Hunt 发布。

(上线后)

Manager

: @你 Product Hunt 当前第 3 名。@jordan 请配置数据埋点。

jordan

: @manager 埋点配置完成,首日注册 1,247 人...

就这样,Manager 贯穿了规划、分配、监控、协调、汇报的全流程。一个 AI,带着 4 个 AI 员工,干完了一个团队的活。


五、结语

无论你是想要“一个人干成一个团队”的独立开发者/一人公司创始人,还是寻求更安全体验的 OpenClaw 深度玩家,亦或是希望构建数字员工的企业团队,HiClaw 都将是你的绝佳选择。

HiClaw 是完全开源的(基于 Apache 2.0),后续还将支持自由扩展 Copaw、ZeroClaw 等更多 Agent 模型。

GitHub 地址:

  • https://github.com/higress-group/hiclaw

好了,这就是我今天想分享的内容。如果你对构建企业级 AI 原生应用新架构设计和落地实践感兴趣,别忘了点赞、关注噢~

—1—

加我微信

扫码加我👇有很多不方便公开发公众号的我会直接分享在朋友圈,欢迎你扫码加我个人微信来看👇

图片

加星标★,不错过每一次更新!

⬇戳”阅读原文“,立即预约!

Read more

在 IDEA 中切换 Gitee 仓库的两种情况

在 IDEA 中切换 Gitee 仓库的两种情况

在 IDEA 中切换 Gitee 仓库的有两种情况,一个是修改自己原本的仓库,一个是想保留自己仓库的同时,也增加上团队的仓库,下文就做了介绍(记录一下自己遇到的问题,解决后发出来) 修改现有远程仓库地址(适用于彻底更换) 如果只是想将当前项目关联到一个新的仓库地址,可以修改现有的 origin 远程仓库的 URL。 1. 查看当前远程仓库信息: 2. 3. 修改远程仓库地址: 4. 5. 验证新地址: * 再次通过 Git -> Manage Remotes... 或 git remote -v 命令确认 URL 已更新。 或者,在终端中使用命令直接修改: git remote set-url origin <你的新仓库URL> 例如: git

By Ne0inhk
【人工智能】异构算力重构AIGC | 蓝耘智算平台部署通义万相2.1文生图技术全解析

【人工智能】异构算力重构AIGC | 蓝耘智算平台部署通义万相2.1文生图技术全解析

📝个人主页🌹:Eternity._ 🌹🌹期待您的关注 🌹🌹 ❀ 蓝耘智算平台 * 通义万相2.1文生图 * 优势 * 模型效果对比 * 蓝耘智算平台 * 登陆注册 * 蓝耘:通义万相2.1文生图的配置部署 * 使用实例 * 总结 前言:在人工智能(AI)技术日新月异的今天,AIGC(生成式人工智能内容生成)作为新兴领域,正以前所未有的速度改变着内容创作的格局。随着数据规模、算法复杂度的不断攀升,算力需求也呈现出爆发式增长的趋势。在这一背景下,异构算力作为提升算力效率与灵活性的关键手段,正逐渐成为推动AIGC技术发展的核心驱动力。 在AIGC技术指数级进化的浪潮下,文生图模型的参数量已突破千亿级门槛,据Stability AI最新报告显示,单次1080P图像生成的算力消耗较两年前激增320%,传统同构计算架构面临显存墙、能耗比失衡、硬件利用率不足等多重挑战。蓝耘智算平台通过革命性的异构算力重构方案,成功部署通义万相2.1这一业界领先的文生图大模型,开创了"算法-算力-场景"三位一体的AIGC工业化新范式。 蓝耘智算平台

By Ne0inhk
【全网最全的的本地部署Code Agent攻略参考】跃阶星辰AI开源Step-3.5-Flash

【全网最全的的本地部署Code Agent攻略参考】跃阶星辰AI开源Step-3.5-Flash

1. 简介 Step 3.5 Flash(访问官网)是我们目前最强大的开源基础模型,专为提供前沿推理与智能体能力而设计,同时具备卓越的效率。基于稀疏混合专家(MoE)架构,它每处理一个token仅激活1960亿参数中的110亿。这种"智能密度"使其推理深度可比肩顶级闭源模型,同时保持实时交互所需的敏捷性。 2. 核心能力 * 高速深度推理:聊天机器人擅长阅读,而智能体必须快速推理。通过三路多token预测(MTP-3)技术,Step 3.5 Flash在典型使用场景中实现100-300 tok/s的生成吞吐量(单流编码任务峰值达350 tok/s),能即时响应复杂的多步推理链条。 * 编码与智能体的强力引擎:Step 3.5 Flash专为智能体任务打造,集成可扩展的强化学习框架驱动持续自我进化。其SWE-bench Verified通过率74.4%,Terminal-Bench 2.0通过率51.

By Ne0inhk
技术速递|GitHub Copilot SDK 与云原生的完美融合

技术速递|GitHub Copilot SDK 与云原生的完美融合

作者:卢建晖 - 微软高级云技术布道师 排版:Alan Wang 引言 在当今快速演进的 AI 技术格局中,我们已经见证了从简单聊天机器人到复杂智能体系统的转变。作为一名开发者和技术布道者,我观察到一个正在形成的趋势——重点不在于让 AI 无所不能,而在于让每一个 AI Agent 在特定领域做到极致、做到专业。 今天,我想分享一套令人兴奋的技术组合:GitHub Copilot SDK(将生产级智能体引擎嵌入任意应用的开发工具包) + Agent-to-Agent(A2A)Protocol(实现智能体标准化协作的通信规范) + 云原生部署(支撑生产系统的基础设施)。这三者结合在一起,使我们能够构建真正具备协作能力的多智能体系统。 从 AI 助手到智能体引擎:重新定义能力边界 传统的 AI 助手往往追求“全能”——试图回答你抛给它的任何问题。但在真实的生产环境中,这种方式会遇到严重挑战: * 质量不一致:一个模型同时写代码、做数据分析、

By Ne0inhk