RAG 并非终点,AI Agent 的记忆才是未来方向。 用最简单的方式拆解下这个进化过程: RAG (2020-2023): - 单次检索信息,生成回复 - 没有决策,只是提取和回答 - 问题:经常提取到无关信息 Agentic RAG: - Agent 决定是否需要检索 - Agent 选择哪个数据源来查询 - Agent 验证结果是否有用 - 问题:仍然是只读,无法从交互中学习 AI 记忆: - 读取和写入外部知识 - 从过去的对话中学习 - 记住用户偏好、历史背景 - 实现真正的个性化 这个心智模型很简单: ↳ RAG:只读,一次性 ↳ Agentic RAG:通过工具调用实现只读 ↳ Agent Memory:通过工具调用实现读写 Agent 记忆的强大之处在于:Agent 现在可以“记住”事情了——用户偏好、过去的对话、重要日期,所有这些都可以存储起来,供未来交互使用。 这解锁了更大的可能性:持续学习。 Agent 不再被冻结在训练时,而是可以从每次交互中积累知识,随着时间的推移不断改进,无需重新训练。 记忆是静态模型和真正自适应 AI 系统之间的桥梁。 当然,并非一帆风顺。 记忆引入了 RAG 从未有过的挑战:记忆损坏、决定忘记什么,以及管理多种记忆类型(程序性、情景性和语义性)。 从头开始解决这些问题很难。 如果你想给你的 Agent 赋予类似人类的记忆,可以看看 Graphiti,一个用于构建实时知识图谱的开源框架。 链接在下一条推文中!
内容翻译于 @akshay_pachaar 的精彩分享
Akshay 🚀
Akshay 🚀11 小时前
RAG 从来不是最终目标。 AI 代理的记忆是未来发展的方向。让我以最简单的方式来解释这个演变。 RAG(2020-2023): - 一次检索信息,生成响应 - 没有决策,只是获取和回答 - 问题:经常检索到无关的上下文 代理 RAG: - 代理决定 *是否* 需要检索 - 代理选择 *哪个* 来源进行查询 - 代理验证 *结果是否* 有用 - 问题:仍然是只读,无法从交互中学习 AI 记忆: - 读 AND 写 外部知识 - 从过去的对话中学习 - 记住用户偏好,过去的上下文 - 实现真正的个性化 心理模型很简单: ↳ RAG:只读,一次性 ↳ 代理 RAG:通过工具调用只读 ↳ 代理记忆:通过工具调用读写 使代理记忆强大的原因在于: 代理现在可以 "记住" 事情——用户偏好、过去的对话、重要的日期。所有信息都被存储并可供未来交互检索。 这解锁了更大的东西:持续学习。 代理不再在训练时被冻结,而是可以从每次交互中积累知识。它们随着时间的推移而改进,而无需重新训练。 记忆是静态模型与真正自适应 AI 系统之间的桥梁。 但这并不是一帆风顺。 记忆引入了 RAG 从未遇到的新挑战:记忆损坏、决定遗忘什么,以及管理多种记忆类型(程序性、情节性和语义性)。 从零开始解决这些问题是困难的。如果你想给你的代理提供类人记忆,可以查看 Graphiti——一个用于构建实时知识图谱的开源框架。 你可以在下一条推文中找到链接!
2.13K