阿里开源 OpenClaw:5分钟本地搞定多 Agent 团队!

大家好,我是玄姐。

阿里开源 Team 版 OpenClaw:HiClaw 发布,5分钟本地搞定多 Agent 团队!

作为模型服务的新入口,OpenClaw 曾凭借强大的自动化能力(写代码、查邮件、操作 GitHub、设置定时任务)让无数开发者大呼过瘾。这种通过 IM 直接下发指令的交互创新,确实带来了极大的“爽感”。

但是,随着你的指令积压、Long Horizon(长周期)项目越来越多,原生 OpenClaw 的短板开始暴露:

  • 安全风险在裸奔:每个 Agent 都要配置自己的 API Key。GitHub PAT、LLM Key 散落各处。2026年初的漏洞事件提醒我们,这种 "self-hackable" 架构极易造成凭证泄露。
  • 记忆爆炸与 Token 刺客:一个 Agent 既当爹又当妈(前端、后端、写文档)。skills/ 越来越乱,MEMORY.md 混杂海量记忆,每次加载都要塞入大量无关上下文,既浪费 Token,又容易让 AI “精神分裂”。
  • 多 Agent 协作像在“带娃”:手动配置 SubAgent、手动分配任务、手动同步进度……你本想专注业务,结果却成了 Agent 的全职保姆。
  • 移动端体验门槛极高:想在手机上随时随地指挥 Agent?对不起,飞书、钉钉的机器人接入审批流程能让你等到绝望。
  • 配置门槛劝退新手:光是安装、配置到跑通,资深程序员也得折腾大半天(某鱼甚至出现了付费代装服务)。

如果你也深有同感,那么今天的主角:HiClaw,就是为你量身打造的。


一、HiClaw 究竟是什么?

HiClaw = OpenClaw 超进化,你可以把它理解为 Team 版的 OpenClaw。

它的核心创新在于引入了 Manager Agent(AI 管家)角色。它不直接干脏活累活,而是帮你管理底下的 Worker Agent 团队,就像钢铁侠的智能管家贾维斯。

你的本地环境:

Manager Agent (AI 管家)
 ➡️ 负责管理、拆解任务、分派

⬇️

Worker Alice (前端) | Worker Bob (后端) | Worker... (数据/运营)

作为真人管理员,你只需做决策,不再当保姆。这套系统支持灵活的模式切换:

  • 模式一:直接对话 Manager。适合快速问答和简单操作,Manager 自己随手就办了。
  • 模式二:Manager 分派 Worker。面对复杂项目,Manager 自动拆解任务并分配给专业的 Worker。每个 Worker 拥有独立的技能(Skills)和记忆(Memory),物理隔离,互不污染。

二、直击痛点:HiClaw 的四大架构革新

1. 终结安全焦虑:Worker 永远不碰真实凭证

在原生 OpenClaw 中,一旦 Agent 被攻击,你的 API Key 就会直接暴露。

HiClaw 引入了 AI Gateway 机制:真实的 API Key、GitHub PAT 等凭证全部由网关统一收口。

  • Worker 视角:只能看到任务文件、工作目录和一张“门禁卡”(Consumer Token)。它看不到你的 LLM Key,也看不到任何加密凭证。
  • 调用外部服务:全部通过 Gateway 代理。
  • 技能生态放心用:HiClaw 内置了 find-skills 技能。当 Worker 缺工具时,会主动去 80,000+ 的开源技能库搜索并安装。由于 Worker 运行在安全沙箱且无真实凭证,你可以放心大胆地让它自主扩展能力。如果是企业用户,只需配置 SKILLS_API_URL 即可无缝切换到内部私有技能库。

2. 告别记忆爆炸:引入 MinIO 共享文件系统

Agent 之间交换代码、文档等中间产物,如果全发在群聊里,Token 成本和延迟都会爆炸。

HiClaw 巧妙地采用了双轨制:

  • Matrix 群聊房间:只保留有意义的沟通、汇报和决策记录(保持上下文精简)。
  • 底层 MinIO 共享文件系统:用于存储代码、文档、临时数据等大量中间产物(不污染群聊)。

算一笔经济账:

假设一个项目需要 3 次代码开发(需使用强大的 Sonnet 模型,每次 50k tokens)和 10 次普通信息收集(需 100k tokens)。

  • 原生 OpenClaw(混杂在一起,统一用高阶模型):总计约 $3.45。
  • HiClaw(按任务分配模型,区分轻重):代码用 Sonnet,信息收集分配给便宜的模型(如 Haiku),总计约$0.70。

直接节省 80% 成本,且代码质量不打折!

3. 多 Agent 高效协作:基于 Matrix 的 Swarm 架构

HiClaw 在 Manager-Worker 的 Supervisor 架构基础上,通过底层的 Matrix 群聊房间实现了 Swarm(蜂群)架构的优势。

  • 上下文共享:Alice(前端)在群里说进度,Bob(后端)自动就能看到,无需重复沟通。
  • 防惊群设计:避免群里每句话都触发全员 LLM 调用。规则很简单:Agent 只有被 @ 的时候才会被唤醒。
  • Human in the Loop(人在环路):一切协作在群聊中可见,发现进度走偏,你可以随时 @ 对应的 Agent 进行人工干预。

4. 极致的移动端体验:开箱即用的内置 IM

HiClaw 抛弃了繁琐的微信/飞书/钉钉企业机器人接入,直接内置了 Tuwunel Matrix Server。

下载 Matrix 客户端(如 Element Mobile 或 FluffyChat),连上你的服务器,随时随地在手机上指挥你的 AI 团队干活。消息实时推送,对话全程透明。


三、All-in-One 架构设计:5分钟极速安装

原生 OpenClaw 像是一台需要你自己买显卡(LLM)、配显示器(Channel)、装驱动的“组装机”。而 HiClaw 是一台开箱即用的“MacBook”。

它打包了:OpenClaw (大脑) + Higress AI Gateway (神经中枢) + Tuwunel Matrix (感知器官) + MinIO (海马体)。

一键安装脚本:

macOS / Linux:

bash <(curl -sSL https://higress.ai/hiclaw/install.sh)

Windows(PowerShell 7+):

Set-ExecutionPolicy Bypass -Scope Process -Force; Invoke-Expression ((New-Object System.Net.WebClient).DownloadString('https://higress.ai/hiclaw/install.ps1'))

脚本会自动智能检测时区选择镜像、使用 Docker 容器化封装屏蔽系统差异,你只需要准备一个 LLM API Key 即可启动!

图片

四、Showcase:躺在沙发上,看着 AI 团队开发 SaaS

假设你想开发一款 AI 写作助手 MVP,体验一下 HiClaw 的震撼工作流:

: 帮我创建 4 个 Worker:alex(产品), sam(全栈开发), taylor(内容运营), jordan(数据分析)

Manager: 好的,4 个 Worker 已创建。

: 启动项目:AI 写作助手 MVP,下周要上线

Manager: 收到,我来规划项目... [创建项目群,邀请全员,输出分为产品定义、开发、上线三阶段的 Phase 计划]... 确认后我开始分配任务。

: 确认

Manager: @alex 你有新任务 [task-001]:竞品调研 & PRD...

(1小时后)
alex

: @manager task-001 完成。PRD 结果已存入:

~/hiclaw-fs/shared/tasks/task-001/result.md

Manager

: [读取状态] @sam 你有新任务 [task-002]:技术选型 &amp; 架构,参考 PRD。@taylor 你有新任务 [task-005]:发布素材准备...

(后续 sam 完成开发部署,alex 介入验收,提出修改意见,Manager 自动创建修订任务发给 sam...)

Manager

: @你 MVP 开发完成!代码已部署,验收通过,发布素材就绪。
你: 准备上线。@taylor 明天 Product Hunt 发布。

(上线后)

Manager

: @你 Product Hunt 当前第 3 名。@jordan 请配置数据埋点。

jordan

: @manager 埋点配置完成,首日注册 1,247 人...

就这样,Manager 贯穿了规划、分配、监控、协调、汇报的全流程。一个 AI,带着 4 个 AI 员工,干完了一个团队的活。


五、结语

无论你是想要“一个人干成一个团队”的独立开发者/一人公司创始人,还是寻求更安全体验的 OpenClaw 深度玩家,亦或是希望构建数字员工的企业团队,HiClaw 都将是你的绝佳选择。

HiClaw 是完全开源的(基于 Apache 2.0),后续还将支持自由扩展 Copaw、ZeroClaw 等更多 Agent 模型。

GitHub 地址:

  • https://github.com/higress-group/hiclaw

好了,这就是我今天想分享的内容。如果你对构建企业级 AI 原生应用新架构设计和落地实践感兴趣,别忘了点赞、关注噢~

—1—

加我微信

扫码加我👇有很多不方便公开发公众号的我会直接分享在朋友圈,欢迎你扫码加我个人微信来看👇

图片

加星标★,不错过每一次更新!

⬇戳”阅读原文“,立即预约!

Read more

本地部署 Kimi K2 全指南(llama.cpp、vLLM、Docker 三法)

本地部署 Kimi K2 全指南(llama.cpp、vLLM、Docker 三法)

Kimi K2 是 Moonshot AI 于2025年7月11日发布的高性能多专家语言模型(MoE),支持最大 128K 上下文,激活参数规模为 32B,具备极强的推理、代码生成与多轮对话能力。自从其权重以多种格式开源以来,许多开发者希望将其部署在本地,以获得更高的私密性和灵活性。 本文将详细介绍三种主流本地部署路径,并提供完整的配置步骤和使用建议。 📦 准备工作(通用部分) 在进行部署前,请准备如下环境与资源: ✅ 最低硬件配置建议: 项目要求存储空间≥ 250 GB(用于量化模型,若使用 FP8 请预留 1 TB)内存≥ 128 GB RAM(越大越流畅)GPU≥ 24 GB 显存,推荐多卡(如 2×A100、H100)操作系统Linux(Ubuntu 推荐)

By Ne0inhk

Tabnine、Cursor与Copilot:三款AI编程助手的实战效率对比

⚡ 核心摘要 * Copilot: 生态完善 基于多模型策略,通用代码生成质量高,与VS Code/JetBrains集成度高,但数据隐私风险较高。 * Cursor: 交互革命 提供革命性的自然语言编程体验,项目级上下文理解能力最强,特别适合大型项目重构。 * Tabnine: 隐私优先 支持本地化训练与部署,隐私保护机制最严格,响应速度快,但在复杂场景处理上创新不足。 在2026年的软件开发领域,AI编程助手已成为提升开发效率的关键工具。本文将对市场上三款主流AI编程助手——Tabnine、Cursor与GitHub Copilot进行全面对比分析,从代码生成质量、上下文理解能力、响应速度、集成度与隐私保护等多个维度出发,结合不同开发场景与用户类型,为开发者提供实用的工具选择指南。基于最新评测数据,这三款工具各具特色:Copilot生态完善但依赖云端,Cursor提供革命性交互体验但插件生态有限,Tabnine隐私保护最强但创新性不足。开发者可根据自身需求与项目特点,在成本、效率与安全之间找到最佳平衡点。 关键结论 (Key Takeaway) Cop

By Ne0inhk
基于STM32的普通GPIO模拟串口UART(代码开源)

基于STM32的普通GPIO模拟串口UART(代码开源)

前言:本文为手把手教学的基于 STM32 的普通 GPIO 模拟串口 UART 教程,使用 STM32F103ZET6 作为核心 MCU 进行操作。串口 UART 这项外设可以说是嵌入式工程师日常项目研发过程中百分百可能使用到的外设,但很多情况下 MCU 的硬件 UART 受限亦或是 GPIO 引脚被占用导致无法正常使用硬件 URAT 进行打印调试代码 。软件 UART 在这时就起到了至关重要的作用,作者将在本篇博客中提供本人日常使用且方便移植的软件 UART 代码。希望这篇博文能给读者朋友的工程项目给予些许帮助,Respect(代码开源)! 硬件与软件:STM32F103ZET6、CH340、WCH COMTransmit 项目结果图: 一、串口 UART 概述 1.1 什么是串口 UART(Universal Asynchronous

By Ne0inhk

OneAPI开源大模型网关效果展示:24模型API响应时间P95<800ms实测数据

OneAPI开源大模型网关效果展示:24模型API响应时间P95<800ms实测数据 1. 项目概述:统一接入所有主流大模型 如果你正在为不同大模型API的接入问题头疼,OneAPI可能是你一直在寻找的解决方案。这个开源项目用一个统一的OpenAI兼容接口,让你可以无缝接入24个主流大模型,真正实现了"一次接入,处处可用"。 想象一下这样的场景:你的应用需要调用多个大模型,每个模型都有不同的API格式、认证方式和参数要求。传统的做法是为每个模型编写单独的适配代码,维护成本高且容易出错。OneAPI通过标准的OpenAI API格式统一了所有模型的访问方式,让你用同样的代码调用任何支持的大模型。 核心价值: * 🚀 开箱即用:单文件部署,5分钟完成配置 * 🔄 统一接口:所有模型都使用OpenAI标准API格式 * ⚡ 高性能:实测P95响应时间低于800ms * 🎯 简单易用:无需为每个模型学习不同的API规范 2. 实测性能数据:24模型响应时间分析 为了验证OneAPI的实际性能,我们进行了全面的基准测试。测试环境使用8核16G云服务器,网络延迟<5

By Ne0inhk