熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
建立 AI 代理最困難的部分不是教它們記住。
而是教它們忘記。
我的同事和驚人有才華的作家 @helloiamleonie 剛剛發表了我見過的最全面的代理記憶分析,信我,我們都需要這個。
核心挑戰在於:𝗟𝗟𝗠𝘀 𝗮𝗿𝗲 𝘀𝘁𝗮𝘁𝗲𝗹𝗲𝘀𝘀。每次對話都是一個全新的開始。它們不記得你五分鐘前說了什麼,更不用說你上週說了什麼了。所以我們如何製作能夠真正記住的代理?
𝗧𝘄𝗼 𝗳𝘂𝗻𝗱𝗮𝗺𝗲𝗻𝘁𝗮𝗹 𝗺𝗲𝗺𝗼𝗿𝘆 𝘁𝘆𝗽𝗲𝘀:
• 𝗦𝗵𝗼𝗿𝘁-𝘁𝗲𝗿𝗺 𝗺𝗲𝗺𝗼𝗿𝘆: LLM 的上下文窗口中的信息(當前對話)
• 𝗟𝗼𝗻𝗴-𝘁𝗲𝗿𝗺 𝗺𝗲𝗺𝗼𝗿𝘆: 外部存儲的信息(過去的對話、用戶偏好、學習的事實)
但這裡變得有趣且混亂。不同的框架以不同的方式對記憶進行分類,例如:
𝗖𝗼𝗔𝗟𝗔'𝘀 𝗮𝗽𝗽𝗿𝗼𝗮𝗰𝗵(受人類認知啟發):
• 工作記憶(當前對話)
• 語義記憶(有關用戶的事實)
• 情節記憶(過去的經歷和行動)
• 程序記憶(指令和行為)
𝗟𝗲𝘁𝘁𝗮'𝘀 𝗮𝗽𝗽𝗿𝗼𝗮𝗰𝗵(以架構為重點):
• 訊息緩衝區(最近的消息)
• 核心記憶(在上下文中主動管理的區塊)
• 回憶記憶(原始對話歷史)
• 存檔記憶(明確存儲的知識)
𝗧𝗵𝗲 𝗵𝗮𝗿𝗱𝗲𝘀𝘁 𝗽𝗮𝗿𝘁? 𝗙𝗼𝗿𝗴𝗲𝘁𝘁𝗶𝗻𝗴。
管理進入記憶的內容非常複雜。管理被 𝘥𝘦𝘭𝘦𝘵𝘦𝘥 的內容更難。你如何自動決定什麼是過時的?什麼時候舊信息真的過時,還是仍然在上下文中相關?這是大多數實現所面臨的挑戰。
Leonie 涵蓋了從不同的記憶類型(工作、語義、情節、程序)到實際實施策略,以及像 mem0、Letta 和 zep 等記憶框架的日益增長的生態系統。...

熱門
排行
收藏

