Partea cea mai dificilă în construirea agenților AI nu este să-i înveți să-și amintească. Îi învață să uite. Colegul meu și scriitorul incredibil de talentat tocmai @helloiamleonie publicat ceea ce ar putea fi cea mai cuprinzătoare analiză a memoriei unui agent pe care am văzut-o vreodată – și crede-mă, toți aveam nevoie de asta. Iată provocarea principală: LLM-urile sunt fără stat. Fiecare conversație este un nou început. Nu-și amintesc ce ai spus acum cinci minute, cu atât mai puțin ce ai spus săptămâna trecută. Deci, cum facem agenți care chiar își amintesc? Două tipuri fundamentale de memorie: • Memorie pe termen scurt: Informații din fereastra de context a LLM-ului (conversația curentă) • Memorie pe termen lung: Informații stocate extern (conversații anterioare, preferințe ale utilizatorului, fapte învățate) Dar aici devine interesant – și confuz. Cadrele diferite categorizează memoria în mod diferit, de exemplu: Abordarea CoALA (inspirată de cogniția umană): • Memorie de lucru (conversație curentă) • Memorie semantică (fapte despre utilizator) • Memorie episodică (experiențe și acțiuni trecute) • Memorie procedurală (instrucțiuni și comportamente) Abordarea lui Letta (axată pe arhitectură): • Buffer de mesaje (mesaje recente) • Memorie de bază (blocuri în context gestionate activ) • Recall Memory (istoricul brut al conversațiilor) • Memorie arhivistivă (cunoștințe stocate explicit) Partea cea mai grea? Uita. Gestionarea a ceea ce intră în memorie este extrem de complexă. Gestionarea a ceea ce se șterge este și mai dificilă. Cum automatizezi decizia asupra a ceea ce este depășit? Când este informația veche cu adevărat depășită versus cea mai relevantă din punct de vedere contextual? Aici se confruntă cu dificultăți majoritatea implementărilor. Leonie acoperă totul, de la diferitele tipuri de memorie (de lucru, semantică, episodică, procedurală) până la strategii practice de implementare și ecosistemul în creștere al cadrelor de memorie precum mem0, Letta și zep....