LLM 的升级带来模型能力的不断提升,和上下文窗口(Context Window)的不断加大,也就是说:模型能够单次处理的内容变大了、处理能力也变强了。从 GPT-3: 2K、ChatGPT: 4K,到 Gemini: 1M、Llama 4: 10M,一千万上下文,可以毫无压力的吃掉一本百万字的长篇小说了。
但上下文足够长,AI 模型的处理能力和记忆准确度就真的能提升吗?换句话说,AI 模型真的能记住你、了解你吗?不一定!
咱们做个简单对比:有些信息是你当下为了完成某个任务或者聊天,正在脑子里处理的——这有点像 AI 的“上下文窗口”(Context Window)。还有些是你日积月累学到、记住的东西,比如你的经历、知识、喜好——这就更像是“记忆”(Memory)。
想要 AI 变得更智能、更能适应、更能提供针对你的个性化服务,就需要类似我们人类记忆那样的能力——能够长期保存、整理、并从中学习信息。仅仅能一次性处理更多信息,并不等于它真正变聪明了。
比如下图中用户和 AI 的对话:
用户问 AI 今晚应该做什么饭?有记忆的 AI 能知道用户的名字、用户喜欢吃的东西、用户昨天吃了什么、最近的吃饭习惯,以及用户的购买清单管理等。
很直观的感觉:有记忆的 AI 像你的朋友,没有记忆的 AI 像陌生的咨询顾问!
咱们从七个方面来对比上下文窗口和记忆
- 信息能留存多久? (Retention)
上下文窗口:临时的,像个临时便签,每次聊天结束信息就可能清空了,下次对话又是“重新开始”。
记忆:持久的,像个日记本,能把信息、经验存起来,跨越多次对话也能记得。
- 怎么看待信息? (Scope)
上下文窗口:一股脑儿接收,对所有信息一视同仁,不太会区分哪个更重要。
记忆:更聪明,懂得筛选和整理,能抓住重点,知道哪些是关键细节,更有条理。
- 处理成本高不高? (Scaling Cost)
上下文窗口:信息量越大,处理起来越费劲,成本(比如时间和计算资源)越高。
记忆:更高效,因为它只存储相关的、重要的信息,调取和使用时更“轻装上阵”。
- 反应快不快?(Latency)
上下文窗口:给的信息越多,它可能需要更长时间来“思考”,反应会变慢。
记忆:反应更快,因为信息是经过优化存储的,调用起来直接、迅速。
- 怎么回想起信息? (Recall)
上下文窗口:容易“健忘”,尤其是在长对话里,可能会记不清一开始说了什么。
记忆:是根据你的意图或信息的相关性来回想,而不是简单地看信息离现在有多“近”。
- 行为模式是怎样的? (Behavior)
上下文窗口:更像是被动地根据你当前说的话做出反应,缺乏连贯性。
记忆:让 AI 能够学习和适应,它的行为和反应会根据过去的互动不断调整、进化。
- 能不能认识你? (Personalization)
上下文窗口:没法实现个性化,每次对话都像是跟一个“陌生人”聊天。
记忆:这才是个性化的基础。AI 能记住你的偏好、习惯,了解你们之前的谈话历史,提供更懂你的互动。
再推荐几个用于 AI 记忆的开源项目(开发者重点关注)
- Graphiti - 构建时间感知的知识图谱,能随着时间推移而变化,适应不断发展的关系和上下文 @zep_ai
https://github.com/getzep/graphiti
- Letta - 用于构建有状态的 AI Agent,具有先进的推理能力和透明的长期记忆。它是白盒式且模型无关的,允许您在服务器中直观地测试、调试和观察 Agent @Letta_AI
http://github.com/letta-ai/letta
- Mem0 - 为 AI Agent 提供智能记忆层,使其能够从用户交互中主动学习和适应。它结合了 LLM 和向量存储技术,LLM 处理对话中的关键信息,而向量存储执行记忆的语义搜索和检索 @mem0ai
https://github.com/mem0ai/mem0
- Memary - 赋予 AI Agent 类人记忆能力,在知识图谱中跟踪实体知识、偏好和聊天历史,并在代理与用户交互时自动更新
https://github.com/kingjulio8238/Memary
- Cognee - 结合知识图谱和 RAG 技术,为 AI Agent 和应用构建不断发展的语义记忆。它使用动态知识图谱来维护不同信息之间的关系 @cognee_
https://github.com/kingjulio8238/Memary
- Memobase - 基于用户档案的记忆系统,专为为生成式AI 应用提供长期用户记忆而设计 @memobase_io