Det vanskeligste med å bygge AI-agenter er ikke å lære dem å huske. Det er å lære dem å glemme. Min kollega og utrolig talentfulle forfatter @helloiamleonie nettopp publisert det som kanskje er den mest omfattende gjennomgangen av agentminne jeg har sett – og tro meg, vi trengte alle dette. Her er hovedutfordringen: LLM-er er statsløse. Hver samtale er en ny start. De husker ikke hva du sa for fem minutter siden, langt mindre hva du sa forrige uke. Så hvordan lager vi aktører som faktisk husker? To grunnleggende minnetyper: • Korttidsminne: Informasjon i LLM-ens kontekstvindu (den nåværende samtalen) • Langtidsminne: Informasjon lagret eksternt (tidligere samtaler, brukerpreferanser, lærte fakta) Men her blir det interessant – og forvirrende. Ulike rammeverk kategoriserer hukommelse forskjellig, for eksempel: CoALA sin tilnærming (inspirert av menneskelig kognisjon): • Arbeidsminne (nåværende samtale) • Semantisk minne (fakta om brukeren) • Episodisk hukommelse (tidligere erfaringer og handlinger) • Prosedyreminne (instruksjoner og atferd) Lettas tilnærming (arkitekturfokusert): • Meldingsbuffer (nylige meldinger) • Kjerneminne (aktivt administrerte blokker i kontekst) • Gjenkall minne (rå samtalehistorikk) • Arkivminne (eksplisitt lagret kunnskap) Det vanskeligste? Glemme. Å håndtere hva som går inn i minnet er veldig komplekst. Å håndtere hva som blir slettet er enda vanskeligere. Hvordan automatiserer man avgjørelsen om hva som er utdatert? Når er gammel informasjon genuint utdatert versus fortsatt kontekstuelt relevant? Det er her de fleste implementeringer sliter. Leonie dekker alt fra de ulike minnetypene (arbeids-, semantisk-, episodisk-, prosedyremessig) til praktiske implementeringsstrategier og det voksende økosystemet av minnerammeverk som mem0, Letta og Zep....