La parte più difficile nella costruzione di agenti AI non è insegnare loro a ricordare. È insegnare loro a dimenticare. La mia collega e scrittrice incredibilmente talentuosa @helloiamleonie ha appena pubblicato quella che potrebbe essere la più completa analisi della memoria degli agenti che abbia mai visto - e fidatevi, ne avevamo tutti bisogno. Ecco la sfida principale: 𝗟𝗟𝗠𝘀 𝗮𝗿𝗲 𝘀𝘁𝗮𝘁𝗲𝗹𝗲𝘀𝘀. Ogni conversazione è un nuovo inizio. Non ricordano cosa hai detto cinque minuti fa, figuriamoci cosa hai detto la settimana scorsa. Quindi, come possiamo creare agenti che ricordano davvero? 𝗧𝘄𝗼 𝗳𝘂𝗻𝗱𝗮𝗺𝗲𝗻𝘁𝗮𝗹 𝗺𝗲𝗺𝗼𝗿𝘆 𝘁𝘆𝗽𝗲𝘀: • 𝗦𝗵𝗼𝗿𝘁-𝘁𝗲𝗿𝗺 𝗺𝗲𝗺𝗼𝗿𝘆: Informazioni nella finestra di contesto dell'LLM (la conversazione attuale) • 𝗟𝗼𝗻𝗴-𝘁𝗲𝗿𝗺 𝗺𝗲𝗺𝗼𝗿𝘆: Informazioni memorizzate esternamente (conversazioni passate, preferenze degli utenti, fatti appresi) Ma ecco dove diventa interessante - e confuso. Diversi framework categorizzano la memoria in modo diverso, ad esempio: 𝗖𝗼𝗔𝗟𝗔'𝘀 𝗮𝗽𝗽𝗿𝗼𝗮𝗰𝗵 (ispirato alla cognizione umana): • Memoria di lavoro (conversazione attuale) • Memoria semantica (fatti sull'utente) • Memoria episodica (esperienze e azioni passate) • Memoria procedurale (istruzioni e comportamenti) 𝗟𝗲𝘁𝘁𝗮'𝘀 𝗮𝗽𝗽𝗿𝗼𝗮𝗰𝗵 (focalizzato sull'architettura): • Buffer dei messaggi (messaggi recenti) • Memoria centrale (blocchi gestiti attivamente in contesto) • Memoria di richiamo (storia della conversazione grezza) • Memoria archivistica (conoscenza esplicitamente memorizzata) 𝗧𝗵𝗲 𝗵𝗮𝗿𝗱𝗲𝘀𝘁 𝗽𝗮𝗿𝘁? 𝗙𝗼𝗿𝗴𝗲𝘁𝘁𝗶𝗻𝗴. Gestire ciò che entra nella memoria è super complesso. Gestire ciò che viene 𝘥𝘦𝘭𝘦𝘵𝘦𝘥 è ancora più difficile. Come automatizzare la decisione su ciò che è obsoleto? Quando un'informazione vecchia è veramente superata rispetto a quando è ancora contestualmente rilevante? Qui è dove la maggior parte delle implementazioni ha difficoltà. Leonie copre tutto, dai diversi tipi di memoria (lavorativa, semantica, episodica, procedurale) a strategie di implementazione pratiche e il crescente ecosistema di framework di memoria come mem0, Letta e zep....