Operations 11
Forget
优雅地遗忘
交互
持续添加消息直到上下文超过 92%。然后触发压缩,观察低优先级信息被归档。
Context Window 使用率73/100 tokens (73%)
Core Memory (核心)
System Prompt15t
用户画像8t
当前任务12t
Recall (近期)
对话记录 (近)20t
对话记录 (中)18t
Archival (归档)
对话记录 (远)15t
积累的事实10t
用户偏好5t
为什么遗忘是必要的
直觉上"记得越多 = 越好"。但对 Agent 来说,遗忘不是缺陷——而是必需的设计特性。
空间有限
Context Window 有 token 上限。存太多会稀释核心信息。
噪声增加
过时或无关的 Memory 会增加噪声,降低检索精度。
认知负荷
信息过多会降低 LLM 推理质量(Lost in the Middle 效应)。
OpenClaw 的 Context Compactor
触发条件:上下文使用量 >= 92%
流程:
1. 识别旧消息块
2. 将其压缩为 Markdown 摘要
3. 保留关键决策和发现
4. 丢弃中间推理和细节
效果:选择性遗忘——记住结论,忘掉推导过程。
流程:
1. 识别旧消息块
2. 将其压缩为 Markdown 摘要
3. 保留关键决策和发现
4. 丢弃中间推理和细节
效果:选择性遗忘——记住结论,忘掉推导过程。
为什么是 92%?
太早(80%)会浪费上下文,压缩正在讨论的内容。太晚(95%)有空间不足的风险。92% 是 OpenClaw 经验调优的甜蜜点——紧迫性与安全余量之间的最佳平衡。
三种遗忘策略
| 策略 | 机制 | 项目 | 类比 |
|---|---|---|---|
| 压缩 | 摘要旧内容,保留要点,丢弃细节 | OpenClaw | 读完一本书,记住主要观点 |
| 淘汰 | 按重要性/时效性打分,低分移至冷存储 | Letta | 把不用的东西搬进储藏室 |
| 衰减 | Memory 权重随时间自动降低 | Hindsight | 久远的记忆自然变淡 |
遗忘的本质
遗忘不是信息丢失——而是重新评估信息的重要性。好的遗忘机制保持 Memory 的信噪比:重要的东西变清晰,无关的东西变模糊。这就是人类记忆最强大的特性:不是记住一切,而是记住对的东西。
下一节
Agent Memory 的完整旅程已走完:概念、存储、操作。最后一节:回到实践——你的 Agent 该用哪种 Memory 策略?