热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲
RAG 并非终点,AI Agent 的记忆才是未来方向。
用最简单的方式拆解下这个进化过程:
RAG (2020-2023):
- 单次检索信息,生成回复
- 没有决策,只是提取和回答
- 问题:经常提取到无关信息
Agentic RAG:
- Agent 决定是否需要检索
- Agent 选择哪个数据源来查询
- Agent 验证结果是否有用
- 问题:仍然是只读,无法从交互中学习
AI 记忆:
- 读取和写入外部知识
- 从过去的对话中学习
- 记住用户偏好、历史背景
- 实现真正的个性化
这个心智模型很简单:
↳ RAG:只读,一次性
↳ Agentic RAG:通过工具调用实现只读
↳ Agent Memory:通过工具调用实现读写
Agent 记忆的强大之处在于:Agent 现在可以“记住”事情了——用户偏好、过去的对话、重要日期,所有这些都可以存储起来,供未来交互使用。
这解锁了更大的可能性:持续学习。
Agent 不再被冻结在训练时,而是可以从每次交互中积累知识,随着时间的推移不断改进,无需重新训练。
记忆是静态模型和真正自适应 AI 系统之间的桥梁。
当然,并非一帆风顺。
记忆引入了 RAG 从未有过的挑战:记忆损坏、决定忘记什么,以及管理多种记忆类型(程序性、情景性和语义性)。
从头开始解决这些问题很难。
如果你想给你的 Agent 赋予类似人类的记忆,可以看看 Graphiti,一个用于构建实时知识图谱的开源框架。
链接在下一条推文中!
内容翻译于 @akshay_pachaar 的精彩分享

11 小时前
RAG 从来不是最终目标。
AI 代理的记忆是未来发展的方向。让我以最简单的方式来解释这个演变。
RAG(2020-2023):
- 一次检索信息,生成响应
- 没有决策,只是获取和回答
- 问题:经常检索到无关的上下文
代理 RAG:
- 代理决定 *是否* 需要检索
- 代理选择 *哪个* 来源进行查询
- 代理验证 *结果是否* 有用
- 问题:仍然是只读,无法从交互中学习
AI 记忆:
- 读 AND 写 外部知识
- 从过去的对话中学习
- 记住用户偏好,过去的上下文
- 实现真正的个性化
心理模型很简单:
↳ RAG:只读,一次性
↳ 代理 RAG:通过工具调用只读
↳ 代理记忆:通过工具调用读写
使代理记忆强大的原因在于:
代理现在可以 "记住" 事情——用户偏好、过去的对话、重要的日期。所有信息都被存储并可供未来交互检索。
这解锁了更大的东西:持续学习。
代理不再在训练时被冻结,而是可以从每次交互中积累知识。它们随着时间的推移而改进,而无需重新训练。
记忆是静态模型与真正自适应 AI 系统之间的桥梁。
但这并不是一帆风顺。
记忆引入了 RAG 从未遇到的新挑战:记忆损坏、决定遗忘什么,以及管理多种记忆类型(程序性、情节性和语义性)。
从零开始解决这些问题是困难的。如果你想给你的代理提供类人记忆,可以查看 Graphiti——一个用于构建实时知识图谱的开源框架。
你可以在下一条推文中找到链接!
2.13K
热门
排行
收藏

