OpenClaw 5 步调教指南:让 AI 助手真正“能干活”
对 OpenClaw 默认配置能力不足的问题,提出 5 步调教方案。首先通过 SOUL.md 等文件设定 AI 人格;其次采用分层记忆结构并开启 memorySearch 增强检索;接着利用自定义 Skill 扩展视频下载、PPT 生成等实操能力;然后配置 Heartbeat 心跳机制实现主动巡检;最后实施多模型分级策略以降低成本。通过这些配置优化,将 AI 助手从被动聊天工具转变为能主动工作的高效搭档。

对 OpenClaw 默认配置能力不足的问题,提出 5 步调教方案。首先通过 SOUL.md 等文件设定 AI 人格;其次采用分层记忆结构并开启 memorySearch 增强检索;接着利用自定义 Skill 扩展视频下载、PPT 生成等实操能力;然后配置 Heartbeat 心跳机制实现主动巡检;最后实施多模型分级策略以降低成本。通过这些配置优化,将 AI 助手从被动聊天工具转变为能主动工作的高效搭档。

很多人装完 OpenClaw,接上 Discord 或 Telegram,发现能聊天了就觉得'搞定了'。
但我自己踩坑一圈后,越来越确定一件事:默认状态的 OpenClaw,可能只发挥了 20% 的能力。剩下的 80%,藏在一些你没太注意的配置文件里——而且改起来并不难。
下面我按'收益从高到低'的顺序,把我自己最有效的 5 步调教方法整理出来。新手照着做,大概率能立刻感受到差别。
先给你一个直观对比,方便建立预期:
| 项目 | 默认状态 | 调教后 |
|---|---|---|
| 回复风格 | 客服味:'我很乐意帮助您!' | 更像懂你的搭档 |
| 记忆 | 每次对话都像陌生人 | 记得你们之前聊过什么 |
| 能力 | 只能聊天 | 能下载视频、查股票、做 PPT、巡检服务器… |
| 主动性 | 你不说它不动 | 会定期检查状态,主动提醒 |
| 成本/效率 | 所有任务都用同一个模型 | 复杂任务用强模型,简单活用便宜模型 |
如果你只做一件事:先把第 1 步和第 2 步做了,体验就会明显提升。
OpenClaw 的 workspace 里,我认为最关键的三份文件是:
很多人默认 SOUL.md 基本空着,所以 AI 回答就会很'标准化':礼貌但没劲,像客服。
我自己改 SOUL.md 时,没有写一堆长篇大论,就几条原则,效果立刻变了:
# 核心原则 - 别说'很高兴帮助您',直接帮 - 允许有自己的观点和偏好(但别装懂) - 先自己查,查不到再问我 - 简洁:该详细时详细,该简短时简短
就这么几行,回复会明显从'尊敬的用户您好'变成'正常人说话'。
另外,IDENTITY.md 我建议一定要填:给它起名字、配个 emoji。
别小看这个——有名字的 AI,在多轮对话里一致性真的更好,不会一会儿像程序,一会儿像客服。
USER.md 则写你自己的基础信息,比如:
这一步是我觉得提升最大的。
默认 OpenClaw 会有一个 MEMORY.md,但常见两种翻车写法:
我自己的做法是:分层记忆。结构大概长这样:
MEMORY.md ← 索引层:只放最核心信息 + 指向其他文件的索引
memory/projects.md ← 项目层:每个项目状态、待办
memory/infra.md ← 基础设施层:服务器配置、API 地址等速查
memory/lessons.md ← 教训层:踩过的坑,按严重程度分级
memory/YYYY-MM-DD.md ← 日志层:当天发生了什么
关键思路只有一句话:
MEMORY.md 只做索引,不堆内容。
启动新 session 时只加载索引,需要细节再去读对应文件。
这样你会得到一个很舒服的效果:
既能'记得住',又不会'记得太乱'。
如果你希望出现这种场景:
你问:'上次那个部署问题怎么解决的?'
AI 能语义检索 → 直接定位到某天日志的某段 → 精准复述
那我建议开启 OpenClaw 的 memorySearch(向量语义检索)。
参考配置(放在 openclaw.json 里):
"memorySearch":{"enabled":true,"provider":"openai","remote":{"baseUrl":"你的 embedding API 地址","apiKey":"你的 key"},"model":"BAAI/bge-m3"}
我自己的经验是:embedding 选 bge-m3 这种通用模型,性价比很高。
(你提到的 SiliconFlow 免费 embedding API 也确实是一个'入门就能用'的路线。)
另外我也建议你开启 compaction.memoryFlush:
上下文快满的时候,AI 会把重要信息写进当天日志,避免对话一长就'失忆'。
OpenClaw 内置了一些 skill(天气、新闻等),但真正好玩的,是自定义 skill。
你可以把 skill 理解成:
给 AI 一份'标准作业流程(SOP)',让它遇到某类请求就按流程执行。
一个 skill 的目录通常是这样:
skills/
my-skill/
SKILL.md ← AI 主要读这个:触发条件、步骤、输出格式
script.sh ← 可选:需要执行脚本就放这
README.md ← 可选:给人看的说明
我自己常用的几个例子:
写 skill 时,我总结一个很实用的心法:
把 AI 当成新来的实习生。
你写得越清楚,它越稳定。你写得越含糊,它越玄学。
触发条件、步骤、输出格式都写死,结果会稳很多。
你也提到了社区现成 skill(比如 clawhub.com),我建议新手路线是:
OpenClaw 有个心跳机制:系统每隔一段时间(默认 30 分钟)会 ping 一下 AI,问它有没有要做的。
默认情况下,AI 收到心跳就回个 HEARTBEAT_OK,等于啥也没干。
但你可以写一个 HEARTBEAT.md,告诉它心跳时该检查什么。比如:
# HEARTBEAT.md
## 每次心跳
- 检查 XX 服务是否在线(curl 一下)
- 如果挂了,通知我,但不要自动重启
## 每天一次
- 检查有没有超过 3 天没更新的项目待办
## 每周一次
- 整理最近 7 天的日志,提炼到长期记忆
这样你的 AI 就像一个 7×24 的值班员:
你睡觉它巡检,你醒来直接看报告。
我自己的选择逻辑是:
如果你想从简单开始:先用 Heartbeat 做巡检、整理,再考虑 cron。
如果你能接入多个模型(比如走 API 中转),我强烈建议做 多模型分级。原因很现实:省钱、省 token,也更快。
我自己大概按这个思路分:
| 等级 | 模型 | 用途 |
|---|---|---|
| 🔴 强 | Claude Opus / GPT-5 | 主对话、复杂架构设计、深度推理 |
| 🟡 中 | Claude Sonnet | 子任务:写代码、信息整理 |
| 🟢 轻 | Claude Haiku | 简单操作:文件搜索、格式转换 |
在 openclaw.json 里配置 alias(示例):
"models":{"your-provider/strong-model":{"alias":"opus"},"your-provider/medium-model":{"alias":"sonnet"},"your-provider/light-model":{"alias":"haiku"}}
然后在 AGENTS.md 里写清楚分配策略:
当 AI 需要派子 agent 执行任务时,就会更倾向选合适的模型。
我的体感收益是:日常 token 消耗能降很多,因为大多数任务根本不需要最强模型。
如果你想按'最省时间、最有效'的顺序来,我建议:
OpenClaw 的设计哲学,我理解就是:
给你一个框架,你来定义它是谁。
默认配置只能算'通了'。真正让它变好用的,是你把它调成更贴合你工作方式的搭档:
能记住上下文、能按流程做事、还能主动巡检和提醒。
我自己折腾了一段时间,最大的感受是:
从'只会回消息的 bot',到'真的能帮我省时间的助手',中间差的就是这些配置细节。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML 转 Markdown 互为补充。 在线工具,Markdown 转 HTML在线工具,online