建立 AI 代理最困難的部分不是教它們記住。 而是教它們忘記。 我的同事和驚人有才華的作家 @helloiamleonie 剛剛發表了我見過的最全面的代理記憶分析,信我,我們都需要這個。 核心挑戰在於:𝗟𝗟𝗠𝘀 𝗮𝗿𝗲 𝘀𝘁𝗮𝘁𝗲𝗹𝗲𝘀𝘀。每次對話都是一個全新的開始。它們不記得你五分鐘前說了什麼,更不用說你上週說了什麼了。所以我們如何製作能夠真正記住的代理? 𝗧𝘄𝗼 𝗳𝘂𝗻𝗱𝗮𝗺𝗲𝗻𝘁𝗮𝗹 𝗺𝗲𝗺𝗼𝗿𝘆 𝘁𝘆𝗽𝗲𝘀: • 𝗦𝗵𝗼𝗿𝘁-𝘁𝗲𝗿𝗺 𝗺𝗲𝗺𝗼𝗿𝘆: LLM 的上下文窗口中的信息(當前對話) • 𝗟𝗼𝗻𝗴-𝘁𝗲𝗿𝗺 𝗺𝗲𝗺𝗼𝗿𝘆: 外部存儲的信息(過去的對話、用戶偏好、學習的事實) 但這裡變得有趣且混亂。不同的框架以不同的方式對記憶進行分類,例如: 𝗖𝗼𝗔𝗟𝗔'𝘀 𝗮𝗽𝗽𝗿𝗼𝗮𝗰𝗵(受人類認知啟發): • 工作記憶(當前對話) • 語義記憶(有關用戶的事實) • 情節記憶(過去的經歷和行動) • 程序記憶(指令和行為) 𝗟𝗲𝘁𝘁𝗮'𝘀 𝗮𝗽𝗽𝗿𝗼𝗮𝗰𝗵(以架構為重點): • 訊息緩衝區(最近的消息) • 核心記憶(在上下文中主動管理的區塊) • 回憶記憶(原始對話歷史) • 存檔記憶(明確存儲的知識) 𝗧𝗵𝗲 𝗵𝗮𝗿𝗱𝗲𝘀𝘁 𝗽𝗮𝗿𝘁? 𝗙𝗼𝗿𝗴𝗲𝘁𝘁𝗶𝗻𝗴。 管理進入記憶的內容非常複雜。管理被 𝘥𝘦𝘭𝘦𝘵𝘦𝘥 的內容更難。你如何自動決定什麼是過時的?什麼時候舊信息真的過時,還是仍然在上下文中相關?這是大多數實現所面臨的挑戰。 Leonie 涵蓋了從不同的記憶類型(工作、語義、情節、程序)到實際實施策略,以及像 mem0、Letta 和 zep 等記憶框架的日益增長的生態系統。...