Najtrudniejszą częścią budowania agentów AI nie jest nauczenie ich zapamiętywania. To nauczenie ich zapominania. Moja koleżanka i niesamowicie utalentowana pisarka @helloiamleonie właśnie opublikowała to, co może być najbardziej kompleksowym omówieniem pamięci agentów, jakie widziałem - i uwierzcie mi, wszyscy tego potrzebowaliśmy. Oto podstawowe wyzwanie: 𝗟𝗟𝗠𝘀 𝗮𝗿𝗲 𝘀𝘁𝗮𝘁𝗲𝗹𝗲𝘀𝘀. Każda rozmowa to nowe rozpoczęcie. Nie pamiętają, co powiedziałeś pięć minut temu, nie mówiąc już o tym, co powiedziałeś w zeszłym tygodniu. Jak więc stworzyć agentów, którzy naprawdę pamiętają? 𝗧𝘄𝗼 𝗳𝘂𝗻𝗱𝗮𝗺𝗲𝗻𝘁𝗮𝗹 𝗺𝗲𝗺𝗼𝗿𝘆 𝘁𝘆𝗽𝗲𝘀: • 𝗦𝗵𝗼𝗿𝘁-𝘁𝗲𝗿𝗺 𝗺𝗲𝗺𝗼𝗿𝘆: Informacje w oknie kontekstu LLM (aktualna rozmowa) • 𝗟𝗼𝗻𝗴-𝘁𝗲𝗿𝗺 𝗺𝗲𝗺𝗼𝗿𝘆: Informacje przechowywane zewnętrznie (przeszłe rozmowy, preferencje użytkownika, poznane fakty) Ale tutaj robi się interesująco - i myląco. Różne ramy klasyfikują pamięć w różny sposób, na przykład: 𝗖𝗼𝗔𝗟𝗔'𝘀 𝗮𝗽𝗽𝗿𝗼𝗮𝗰𝗵 (inspirowane ludzką kognicją): • Pamięć robocza (aktualna rozmowa) • Pamięć semantyczna (fakty o użytkowniku) • Pamięć epizodyczna (przesłe doświadczenia i działania) • Pamięć proceduralna (instrukcje i zachowania) 𝗟𝗲𝘁𝘁𝗮'𝘀 𝗮𝗽𝗽𝗿𝗼𝗮𝗰𝗵 (skoncentrowana na architekturze): • Bufor wiadomości (niedawne wiadomości) • Pamięć rdzenna (aktywnie zarządzane bloki w kontekście) • Pamięć przypomnienia (surowa historia rozmowy) • Pamięć archiwalna (wyraźnie przechowywana wiedza) 𝗧𝗵𝗲 𝗵𝗮𝗿𝗱𝗲𝘀𝘁 𝗽𝗮𝗿𝘁? 𝗙𝗼𝗿𝗴𝗲𝘁𝘁𝗶𝗻𝗴. Zarządzanie tym, co trafia do pamięci, jest niezwykle skomplikowane. Zarządzanie tym, co zostaje 𝘥𝘦𝘭𝘦𝘵𝘦𝘥, jest jeszcze trudniejsze. Jak zautomatyzować decyzję, co jest przestarzałe? Kiedy stara informacja jest naprawdę nieaktualna, a kiedy nadal jest kontekstowo istotna? To jest miejsce, w którym większość implementacji ma trudności. Leonie omawia wszystko, od różnych typów pamięci (roboczej, semantycznej, epizodycznej, proceduralnej) po praktyczne strategie implementacji i rosnący ekosystem ram pamięci, takich jak mem0, Letta i zep....