AI 助理从对话到实操的范式转移
从 Chat 到 Action,AI 正在接管我们的屏幕。在一周数万 Star 的狂欢背后,爆火的应用与脆弱的安全性之间,正横亘着一道待解的基础设施鸿沟。

流量高地与产品定位
Clawdbot 的出圈速度很快,社区讨论将其视为开源增长最快的现象级项目之一。更有趣的是,它带动了 Mac mini 等小主机被抢购,许多开发者用此类设备常驻运行,实现 7×24h 全天候执行。

目前官方名称已变更为 Moltbot。改名的原因是 Anthropic 认为 Clawdbot 容易被误解为 Claude Code 的延展产品并提出了抗议。

其定位清晰:一个你自己运行的个人 AI 助手,驻扎在你已经在用的聊天渠道里,比如 WhatsApp、Telegram、Slack、Discord、Google Chat、Signal、iMessage、Microsoft Teams、WebChat 等,同时支持在 macOS、iOS、Android 上交互,并提供一个可控的 Canvas 界面。这套'入口在聊天里,执行在你自己的环境里'的组合,使其迅速流行。
大众的注意力正在从'对话型'迁移到'实操型'。对话给的是答案,实操给的是结果。对绝大多数人来说,后者更像他们心里对'AI 助理'的默认想象。
沸腾后的冷思考
是技术奇点,还是'时势英雄'?
爆火意味着能力点戳中了人心,但也蕴含着创作者影响力、社交平台流量机制及 AI 时代焦虑的共同推动。体验层面存在落差,早期 UI 小问题、流程不顺手、边界场景翻车都很常见。更关键的是成本,模型调用和工具链路的开销会从偶发费用变成持续开销,已有用户反馈短时间内消耗了大量 Token。
安全现实与数据护城河
真正值得讨论的是爆火后暴露出来的'安全现实'。Moltbot 的卖点之一是本地化、可控,涉及对本地 shell、文件系统、浏览器等能力的调用与编排。这让它强大,也让它变得危险。由于拥有极高的系统权限,大部分用户担心 AI 误操作导致主力机数据受损或隐私泄露,被迫选择'物理隔离',用专门硬件承载这个不确定的执行者。
GUI Agent(具备图形界面操作能力的智能体)作为实操型技术路线,具备巨大想象空间。例如豆包手机、Open-AutoGLM 等可完成跨 App 复杂长链路任务,但其权限边界与数据安全将决定它是'神助攻'还是'定时炸弹'。这正是部分同类安全方案的出发点之一。
GUI Agent 天然能覆盖没有标准 API 的存量软件,但也天然处于高权限边缘。把这一类能力推向大众之前,稳妥的路径是把'执行空间'变成默认护栏。让模型或 Agent 在云端沙盒里执行 GUI 任务,实时可见,发现不对可随时人工接管,任务结束销毁环境。这样创新速度加快,试错成本可控,真实设备和数据少承担风险。
macOS 部署教程
首先打开终端运行安装脚本(确保 Node.js 版本大于 22):
curl -fsSL https://molt.bot/install.sh | bash -s -- --install-method git
静待下载安装完毕后,继续运行:
moltbot onboard --install-daemon
随后会看到配置界面,恭喜你已经成功部署了 Moltbot。










