Om å bygge minnesystemer for langsiktige resonnementsoppgaver. Dette er et veldig viktig tema, spesielt for å forbedre kodeagenter som Claude Code. Dagens Memory-Augmented Generation-tilnærminger baserer seg på semantisk likhet over monolittiske minnelagre. Alt blir sammenfiltret: tidsinformasjon, årsakssammenhenger, entitetsreferanser. Når du henter basert kun på semantisk likhet, mister du strukturen som gjør resonnering mulig. Dette designet begrenser tolkbarheten og skaper uoverensstemmelse mellom hva spørringen faktisk trenger og hva som hentes. Denne nye forskningen introduserer MAGMA, en multigraf agentisk minnearkitektur som representerer hvert minneelement over fire ortogonale grafer: semantiske, tidsmessige, kausale og entitetsgrafer. Hovedidé: I stedet for å presse alt inn i ett embeddingsrom, separer de ulike typene relasjoner i distinkte grafstrukturer. Semantisk likhet forteller deg hva som er tematisk relatert. Tidsdiagrammer forteller deg hva som skjedde når. Årsaksgrafer forteller deg hva som førte til hva. Entitetsgrafer forteller deg hvem og hva som er koblet sammen. MAGMA formulerer henting som policy-styrt traversering over disse relasjonelle synspunktene. Agenten lærer å navigere mellom grafer basert på spørringsintensjon, noe som muliggjør adaptiv utvelgelse og strukturert kontekstkonstruksjon. Ved å frikoble minnerepresentasjon fra hentingslogikk, gir MAGMA transparente resonnementsveier. Du kan faktisk se hvorfor visse minner ble hentet frem og hvordan de henger sammen med forespørselen. Eksperimenter på LoCoMo og LongMemEval viser at MAGMA konsekvent overgår toppmoderne agentiske minnesystemer i langtidsresonnering. Hvorfor dette arbeidet er viktig: Etter hvert som agenter håndterer stadig mer komplekse og langvarige oppgaver, blir minnet flaskehalsen. Monolittisk gjenfinning bryter sammen når du må resonnere om hendelsessekvenser, årsak og virkning, eller forhold mellom enheter. Multigrafminne tilbyr en vei videre. Artikkel: Lær å bygge effektive AI-agenter i vår akademi: