Operations 11

Forget

优雅地遗忘

交互

持续添加消息直到上下文超过 92%。然后触发压缩,观察低优先级信息被归档。

Context Window 使用率73/100 tokens (73%)
Core Memory (核心)
System Prompt15t
用户画像8t
当前任务12t
Recall (近期)
对话记录 (近)20t
对话记录 (中)18t
Archival (归档)
对话记录 (远)15t
积累的事实10t
用户偏好5t

为什么遗忘是必要的

直觉上"记得越多 = 越好"。但对 Agent 来说,遗忘不是缺陷——而是必需的设计特性

空间有限

Context Window 有 token 上限。存太多会稀释核心信息。

噪声增加

过时或无关的 Memory 会增加噪声,降低检索精度。

认知负荷

信息过多会降低 LLM 推理质量(Lost in the Middle 效应)。

OpenClaw 的 Context Compactor

触发条件:上下文使用量 >= 92%

流程:
1. 识别旧消息块
2. 将其压缩为 Markdown 摘要
3. 保留关键决策和发现
4. 丢弃中间推理和细节

效果:选择性遗忘——记住结论,忘掉推导过程。

为什么是 92%?

太早(80%)会浪费上下文,压缩正在讨论的内容。太晚(95%)有空间不足的风险。92% 是 OpenClaw 经验调优的甜蜜点——紧迫性与安全余量之间的最佳平衡。

三种遗忘策略

策略机制项目类比
压缩摘要旧内容,保留要点,丢弃细节OpenClaw读完一本书,记住主要观点
淘汰按重要性/时效性打分,低分移至冷存储Letta把不用的东西搬进储藏室
衰减Memory 权重随时间自动降低Hindsight久远的记忆自然变淡

遗忘的本质

遗忘不是信息丢失——而是重新评估信息的重要性。好的遗忘机制保持 Memory 的信噪比:重要的东西变清晰,无关的东西变模糊。这就是人类记忆最强大的特性:不是记住一切,而是记住对的东西


下一节

Agent Memory 的完整旅程已走完:概念、存储、操作。最后一节:回到实践——你的 Agent 该用哪种 Memory 策略?