Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Über den Aufbau von Gedächtnissystemen für langfristige Denkaufgaben.
Dies ist ein wirklich wichtiges Thema, insbesondere zur Verbesserung von Codierungsagenten wie Claude Code.
Aktuelle Ansätze zur speicheraugmentierten Generierung basieren auf semantischer Ähnlichkeit über monolithische Speichersysteme. Alles wird verwoben: zeitliche Informationen, kausale Beziehungen, Entitätsreferenzen. Wenn Sie nur auf der Grundlage semantischer Ähnlichkeit abrufen, verlieren Sie die Struktur, die das Denken möglich macht.
Dieses Design schränkt die Interpretierbarkeit ein und schafft eine Fehlanpassung zwischen dem, was die Abfrage tatsächlich benötigt, und dem, was abgerufen wird.
Diese neue Forschung führt MAGMA ein, eine multi-graphische agentische Gedächtnisarchitektur, die jedes Gedächtniselement über vier orthogonale Graphen darstellt: semantisch, temporal, kausal und entitär.
Kernidee:
Anstatt alles in einen Einbettungsraum zu stopfen, trennen Sie die verschiedenen Arten von Beziehungen in unterschiedliche Graphstrukturen. Semantische Ähnlichkeit sagt Ihnen, was thematisch verwandt ist. Temporale Graphen sagen Ihnen, was wann passiert ist. Kausale Graphen sagen Ihnen, was zu was geführt hat. Entitätsgraphen sagen Ihnen, wer und was verbunden ist.
MAGMA formuliert das Abrufen als politikgeführte Traversierung über diese relationalen Ansichten. Der Agent lernt, über Graphen basierend auf der Absicht der Abfrage zu navigieren, was eine adaptive Auswahl und den strukturierten Aufbau von Kontext ermöglicht.
Durch die Entkopplung der Gedächtnisrepräsentation von der Abruflogik bietet MAGMA transparente Denkpfade. Sie können tatsächlich sehen, warum bestimmte Erinnerungen abgerufen wurden und wie sie mit der Abfrage verbunden sind.
Experimente zu LoCoMo und LongMemEval zeigen, dass MAGMA die besten agentischen Gedächtnissysteme in langfristigen Denkaufgaben konsequent übertrifft.
Warum diese Arbeit wichtig ist:
Da Agenten zunehmend komplexe, langanhaltende Aufgaben übernehmen, wird das Gedächtnis zum Engpass. Monolithisches Abrufen bricht zusammen, wenn Sie über Ereignisfolgen, Ursache und Wirkung oder Beziehungen zwischen Entitäten nachdenken müssen. Multi-Graph-Gedächtnis bietet einen Weg nach vorne.
Papier:
Lernen Sie, effektive KI-Agenten in unserer Akademie zu bauen:

Top
Ranking
Favoriten
