为什么需要这套方案
使用 OpenClaw 一段时间后,我们发现了两个明显的痛点:
- 会话太长,Token 爆满 —— 聊着聊着就忘了前面的内容
- 每次重启都是白纸 —— 知识没有沉淀,重复问同样的问题
能不能让 AI 自己管理记忆,像人一样'三省吾身'?折腾了一天,终于搞定了。
Token 自动压缩:70% 就动手
核心痛点
OpenClaw 默认的 auto-compaction 是在 context window 接近满载时才触发。但这时候已经太晚了——对话质量下降,响应变慢。
解决方案
在 ~/.openclaw/openclaw.json 中配置主动策略:
compaction: {
mode: "safeguard",
reserveTokensFloor: 38400, // 30% 剩余时强制压缩
memoryFlush: {
enabled: true,
softThresholdTokens: 89600, // 70% 时先存储记忆
prompt: "Summarize the conversation history..."
}
}
触发顺序
| 阶段 | Token 使用率 | 行为 |
|---|---|---|
| 1 | 70% (89600 tokens) | memoryFlush 静默存储重要信息 |
| 2 | 70% 剩余 (38400 tokens) | auto-compaction 强制压缩 |
配合 Heartbeat 每 30 分钟检查,超过 70% 会主动提醒:
heartbeat: {
every: "30m",
prompt: "Read HEARTBEAT.md if it exists..."
}
双层记忆体系:快 + 深
架构设计
┌─────────────────────────────────────────────────┐
│ 用户查询 │
└─────────────────────┬───────────────────────────┘
▼
┌─────────────────────────────────────────────────┐
│ QMD(短期记忆) │
│ • 本地 BM25 关键词搜索 │
│ • 毫秒级响应 │
│ • 工作区文件索引 │
└─────────────────────┬───────────────────────────┘
│ 无结果/需语义理解
▼
┌─────────────────────────────────────────────────┐
│ Mem0(长期记忆) │
│ • 云端语义向量搜索 │
│ • 跨会话知识沉淀 │
│ • 重要决策、经验教训 │
└─────────────────────────────────────────────────┘
QMD 安装
# 安装 Bun(如果没装)
powershell -c "irm bun.sh/install.ps1|iex"
# 安装 QMD
bun install -g qmd

