RAG 並非終點,AI Agent 的記憶才是未來方向。 用最簡單的方式拆解下這個進化過程: RAG (2020-2023): - 單次檢索信息,生成回覆 - 沒有決策,只是提取和回答 - 問題:經常提取到無關信息 Agentic RAG: - Agent 決定是否需要檢索 - Agent 選擇哪個數據源來查詢 - Agent 驗證結果是否有用 - 問題:仍然是只讀,無法從交互中學習 AI 記憶: - 讀取和寫入外部知識 - 從過去的對話中學習 - 記住用戶偏好、歷史背景 - 實現真正的個性化 這個心智模型很簡單: ↳ RAG:只讀,一次性 ↳ Agentic RAG:通過工具調用實現只讀 ↳ Agent Memory:通過工具調用實現讀寫 Agent 記憶的強大之處在於:Agent 現在可以“記住”事情了——用戶偏好、過去的對話、重要日期,所有這些都可以存儲起來,供未來交互使用。 這解鎖了更大的可能性:持續學習。 Agent 不再被凍結在訓練時,而是可以從每次交互中積累知識,隨著時間的推移不斷改進,無需重新訓練。 記憶是靜態模型和真正自適應 AI 系統之間的橋樑。 當然,並非一帆風順。 記憶引入了 RAG 從未有過的挑戰:記憶損壞、決定忘記什麼,以及管理多種記憶類型(程序性、情景性和語義性)。 從頭開始解決這些問題很難。 如果你想給你的 Agent 賦予類似人類的記憶,可以看看 Graphiti,一個用於構建實時知識圖譜的開源框架。 鏈接在下一條推文中!
內容翻譯於 @akshay_pachaar 的精彩分享
Akshay 🚀
Akshay 🚀10 小時前
RAG 從來不是最終目標。 AI 代理的記憶是未來的一切。讓我以最簡單的方式來解釋這一演變。 RAG (2020-2023): - 一次檢索信息,生成回應 - 沒有決策,只是提取和回答 - 問題:經常檢索到不相關的上下文 代理 RAG: - 代理決定 *是否* 需要檢索 - 代理選擇 *哪個* 資源進行查詢 - 代理驗證 *結果是否* 有用 - 問題:仍然是只讀的,無法從互動中學習 AI 記憶: - 讀取和寫入外部知識 - 從過去的對話中學習 - 記住用戶偏好、過去的上下文 - 實現真正的個性化 心理模型很簡單: ↳ RAG:只讀,一次性 ↳ 代理 RAG:通過工具調用的只讀 ↳ 代理記憶:通過工具調用的讀寫 這就是使代理記憶強大的原因: 代理現在可以 "記住" 事情 - 用戶偏好、過去的對話、重要的日期。所有這些都被存儲並可供未來的互動檢索。 這解鎖了更大的東西:持續學習。 代理不再在訓練時凍結,而是可以從每次互動中積累知識。它們隨著時間的推移而改進,而無需重新訓練。 記憶是靜態模型和真正自適應 AI 系統之間的橋樑。 但這並不是一帆風順的。 記憶引入了 RAG 從未遇到的新挑戰:記憶損壞、決定忘記什麼,以及管理多種記憶類型(程序性、情節性和語義性)。 從零開始解決這些問題是困難的。如果你想給你的代理人類般的記憶,請查看 Graphiti - 一個用於構建實時知識圖的開源框架。 你可以在下一條推文中找到鏈接!
2.13K