Foundations 01
Memory vs Everything Else
建立概念边界
交互
点击概念圆圈,查看 Memory、RAG、Context Window 和 Prompt Cache 之间的区别。
为什么会混淆?
2025-2026 年的 AI agent 领域存在术语混乱问题。数十个 memory 项目都声称自己是"AI agent 的记忆层"。论文引入了 short-term、long-term、working、episodic memory 等概念。词义重叠,边界模糊。
真正的问题不是"哪种 memory 最好"——而是"这些概念是什么,它们之间有什么关系?"
四个概念,四件不同的事
Memory —— 呈现你不知道自己需要的东西
Agent Memory 是 agent 跨会话积累并主动管理的知识。Agent 自行决定存储什么、何时检索、何时遗忘。它在对话之间持久化,并随时间演进。
"Memory is not retrieval. Retrieval finds what you know you need. Memory surfaces what you didn't know you needed." — HN discussion
RAG —— 你知道需要什么,去取就好
Retrieval-Augmented Generation 从外部文档库中提取相关片段注入 prompt。你提出具体问题,系统搜索知识库。RAG 的数据来自文档;Memory 的数据来自 agent 自身的交互历史。
Context Window —— 临时 RAM,会话结束即丢失
Context Window 是 LLM 在单次推理调用中能看到的全部内容。它就像 RAM——快速、有限、易失。会话结束,上下文消失。
类比
Context Window = RAM —— 快速、小容量、易失。
Memory = 磁盘 + 页表 —— 慢速、大容量、持久化,需要智能分页策略。
Prompt Cache —— 纯粹的性能优化
Prompt Cache 存储重复的 prompt 前缀以节省计算和成本。它不做任何关于"记住什么"的决策。它是加速技术,不是知识管理系统。
实际应用
OpenClaw(Claude Code)——用户反馈评分最高的 agent memory 实现——出人意料地简单:
| 层级 | 机制 | 角色 |
|---|---|---|
| CLAUDE.md | 持久化 Markdown 文件,每次会话注入 system prompt | 工作区记忆 |
| Auto Memory | Agent 主动将发现写入 memory/ 目录 | 长期主动记忆 |
| Context Compactor | 当 context 使用率达 92% 时,将旧消息压缩为摘要 | 策略性遗忘 |
关键洞察
OpenClaw 证明了最受欢迎的 memory 系统不需要 vector 数据库或 knowledge graph。Markdown 文件 + 主动写入 + 透明存储就足以让用户感觉 agent "有意识"。
三个设计选择最为关键:
1. 主动性 —— agent 自行决定记住什么,无需提示。
2. 透明性 —— 用户可以打开文件查看记住了什么。
3. 连续性 —— 每次会话从上次中断的地方继续。
下一节
概念已厘清。下一节:动手体验最简单的 agent memory —— 一个 Markdown 文件。