从 70% Token 自动压缩到'每日三省吾身',打造一个真正会学习的 AI 助手
痛点与目标
使用 OpenClaw 一段时间后,发现两个核心问题:
- 会话太长,Token 爆满 — 聊着聊着就忘了前面的内容
- 每次重启都是白纸 — 知识没有沉淀,重复问同样的问题
能不能让 AI 自己管理记忆,像人一样'三省吾身'?折腾了一天,终于搞定了。
Token 管理策略:70% 就动手
问题
OpenClaw 默认的 auto-compaction 是在 context window 接近满载时才触发。但这时候已经太晚了——对话质量下降,响应变慢。
解决方案
在 ~/.openclaw/openclaw.json 中配置主动压缩策略:
compaction: {
mode: "safeguard",
reserveTokensFloor: 38400, // 30% 剩余时强制压缩
memoryFlush: {
enabled: true,
softThresholdTokens: 89600, // 70% 时先存储记忆
prompt: "Summarize the conversation history..."
}
}
触发顺序
| 阶段 | Token 使用率 | 行为 |
|---|---|---|
| 1 | 70% (89600 tokens) | memoryFlush 静默存储重要信息 |
| 2 | 70% 剩余 (38400 tokens) | auto-compaction 强制压缩 |
配合 Heartbeat 每 30 分钟检查,超过 70% 会主动提醒:
heartbeat: {
every: "30m",
prompt: "Read HEARTBEAT.md if it exists..."
}
双层记忆架构:快 + 深
设计思路
┌─────────────────────────────────────────────────┐
│ 用户查询 │
└─────────────────────┬───────────────────────────┘
▼
┌─────────────────────────────────────────────────┐
│ QMD(短期记忆) │
│ • 本地 BM25 关键词搜索 │
│ • 毫秒级响应 │
│ • 工作区文件索引 │
└─────────────────────┬───────────────────────────┘
│ 无结果/需语义理解
▼
┌─────────────────────────────────────────────────┐
│ Mem0(长期记忆) │
│ • 云端语义向量搜索 │
│ • 跨会话知识沉淀 │
│ • 重要决策、经验教训 │
└─────────────────────────────────────────────────┘
QMD 安装与使用
# 安装 Bun(如果没装)
powershell -c "irm bun.sh/install.ps1|iex"
bun install -g qmd

