
OpenClaw 架构解析
摘要
OpenClaw 如何从周末项目成长为 GitHub 历史上增长最快的开源项目之一,8 周内突破 18 万星标,重新定义个人 AI 助手基础设施。
正文
从周末脚本到现象级开源项目
2026 年 1 月初,一小群开发者聚集在 Michael Galpert 组织的首届 Claude Code Show & Tell 活动上。我们只有二十人,对智能体开发充满好奇,渴望分享使用最新 AI 编码工具的经验。
短短几周后的 2 月 5 日,Michael Galpert 和 Dave Morin 组织了该系列的第三场活动,现已更名为 ClawCon——首届 OpenClaw 旧金山展示会。超过 700 人到场参加。现场气氛热烈,Ashton Kutcher 等投资人花了近一个小时听人们展示项目。OpenClaw 的创始人 Peter Steinberger 成为当晚真正的明星,所有人都围着他提问、祝贺并合影。
这一切是如何发生的?仅仅八周时间,OpenClaw 从一个周末 WhatsApp 中继脚本发展成为 GitHub 历史上增长最快的开源项目之一,到 2 月初已突破 18 万星标。这种增长不仅是病毒式传播,而是史无前例的。
在我看来,关键不仅在于技术能力,更在于产品化。Peter 构建了一个脚手架,将智能体能力从研究工作转变为人们可以实际部署和使用的工具,真正完成任务。OpenClaw 将'会回应的聊天机器人'转变为'会行动的智能体'——一个运行在你自己硬件上的持久助手,可通过你已经使用的消息应用和界面访问。
什么是 OpenClaw?
OpenClaw 是一个个人 AI 助手平台,运行在你自己的基础设施上:你的笔记本电脑、VPS、壁橱里的 Mac Mini 或云容器。它将 AI 模型和工具连接到你已经使用的消息应用:WhatsApp、Telegram、Discord、Slack、Signal、iMessage、Microsoft Teams 等。
OpenClaw 将 AI 助手视为基础设施问题,而非仅仅是提示工程问题。OpenClaw 不试图通过巧妙的提示让 LLM'记住'上下文或安全行事,而是在模型周围构建结构化的执行环境,具备适当的会话管理、内存系统、工具沙箱和消息路由。LLM 提供智能;OpenClaw 提供操作系统。
你可以控制助手在哪里运行、如何路由消息、可以使用哪些工具,以及如何隔离会话。模型 API 调用仍然发送到 Anthropic、OpenAI 或你的模型所在的任何地方;但对话历史、工具执行、会话状态和所有编排逻辑都保留在你的基础设施上。
OpenClaw 面向希望通过任何消息应用访问个人 AI 助手的开发者和高级用户,而无需将整个体验交给托管的第三方助手。如果你曾想在 WhatsApp DM、Slack 频道和 iMessage 线程中使用 Claude 或 GPT,同时让智能在你自己的硬件上运行,OpenClaw 就能实现这种体验。
核心架构原理
OpenClaw 不是围绕 AI 模型 API 的聊天机器人包装器。它是 AI 智能体的操作系统。OpenClaw 将 AI 视为基础设施问题:会话、内存、工具沙箱、访问控制和编排。AI 模型提供智能;OpenClaw 提供执行环境。
OpenClaw 采用以单一网关为中心的轮辐式架构,该网关充当用户输入 (WhatsApp、iMessage、Slack、macOS 应用、Web UI、CLI) 与 AI 智能体之间的控制平面:
- 网关 (Gateway): 一个 WebSocket 服务器,连接到消息平台和控制界面,将每条路由消息分派给智能体运行时。
- 智能体运行时 (Agent Runtime): 端到端运行 AI 循环,从会话历史和内存中组装上下文,调用模型,针对系统可用功能 (浏览器自动化、文件操作、Canvas、定时任务等) 执行工具调用,并持久化更新后的状态。
关键洞察在于,OpenClaw 将接口层 (消息来源) 与助手运行时 (智能和执行所在) 分离。这意味着你可以通过已经使用的任何消息应用访问一个持久助手,对话状态和工具访问在你的硬件上集中管理。






