OpenClaw:本地优先的 AI 智能体框架
OpenClaw(原 Clawd、Moltbot)是一款开源的个人 AI 助手平台,核心定位是'真会动手办事'的数字员工。不同于传统聊天机器人仅能生成文本,OpenClaw 拥有操作权限,能通过自然语言指令主动执行各类任务,如接管电脑操作、读写文件、执行脚本命令等。


核心特性与架构
为什么选择 OpenClaw?
它的设计遵循'本地优先'和'执行优先'理念,主要优势在于:
- 隐私可控:默认运行在用户本地设备(Windows、macOS、Linux),数据不上传云端。
- 寄生式交互:可嵌入 WhatsApp、Telegram、Discord 等通讯软件,在熟悉界面发送指令即可。
- 持续记忆:采用'文件即状态'机制,持久保存偏好和历史信息,越用越懂你。
- 高度可扩展:支持通过'技能(Skills)'扩展能力,社区插件丰富,也可自定义编写脚本。
- 多模型兼容:对接 Anthropic Claude、OpenAI GPT、Gemini 或 Ollama 等本地私有模型。
六大核心子系统
理解其架构有助于更好地定制开发。系统分为六层,各司其职:
- Gateway(网关层):常驻后台 Node.js 进程,监听消息、路由会话,通过 WebSocket 实现实时通信。
- Router(路由层):根据规则将指令分配给对应的 Agent 实例。
- Agent Loop(智能体循环):核心心脏,遵循 Lobster 循环模式,实现'思考 - 执行 - 观察 - 反馈'闭环。
- 思考:拆解任务,加载身份与记忆。
- 执行:调用工具或技能。
- 观察:获取结果。
- 反馈:更新上下文,决定下一步。
- Brain(推理层):负责 Prompt 构建、模型调用和输出解析。
- Memory(记忆层):存储为本地 Markdown/YAML 文件,包含 Soul(身份)、Memory(长期偏好)、Session(短期上下文)和 State(协作进度)。
- Scheduler(调度层):支持心跳和定时模式,实现主动服务。
从零部署 OpenClaw
部署分本地和云端两种方式,这里重点讲解本地部署,适合新手体验。
前置准备
- 系统要求:macOS 10.15+、Linux(推荐 Ubuntu)、Windows(需 WSL2)。
- 依赖:Node.js ≥ 22,pnpm(可选)。
- 配置:准备好 AI 模型 API Key(如 Claude)及聊天渠道账号(Telegram 功能最完善)。


