Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
NIEUWE onderzoeken naar het verbeteren van het geheugen voor AI-agents.
(boek het)
Naarmate contextvensters opschalen naar miljoenen tokens, verschuift de bottleneck van ruwe capaciteit naar cognitieve controle. Weten wat je weet, weten wat ontbreekt en weten wanneer je moet stoppen, is belangrijker dan het verwerken van elk token.
Langere contextvensters garanderen geen betere redenering. Dit komt voornamelijk omdat de manier waarop ontwikkelaars vandaag de dag met ultra-lange documenten omgaan, blijft bestaan uit het uitbreiden van het contextvenster of het samenpersen van alles in een enkele doorgang.
Maar wanneer beslissend bewijs schaars en verspreid is over een miljoen tokens, werpen passieve geheugenstrategieën stilletjes de verbindende feiten weg die nodig zijn voor multi-hop redenering.
Dit nieuwe onderzoek introduceert InfMem, een agent met begrensd geheugen die System-2-stijl cognitieve controle toepast op vraag-antwoord over lange documenten via een gestructureerd PRETHINK–RETRIEVE–WRITE-protocol.
In plaats van elke segment passief samen te persen terwijl het doorstroomt, monitort InfMem actief of zijn geheugen voldoende is om de vraag te beantwoorden. Is het huidige bewijs genoeg? Wat ontbreekt? Waar in het document moet ik kijken?
PRETHINK fungeert als een cognitieve controller, die beslist of hij moet stoppen of meer bewijs moet ophalen. Wanneer er bewijsgebreken zijn, synthetiseert het een gerichte ophaalquery en haalt relevante passages op uit het hele document, inclusief eerdere secties die het al is gepasseerd. WRITE voert vervolgens gezamenlijke compressie uit, waarbij opgehaald bewijs wordt geïntegreerd met het huidige segment in een begrensd geheugen onder een vast budget.
Het trainingsrecept gebruikt een SFT-opwarming om de protocollmechanica te onderwijzen door distillatie van Qwen3-32B, en vervolgens zorgt versterkend leren ervoor dat ophalen, schrijven en stopbeslissingen in lijn zijn met de correctheid van de eindtaak met behulp van uitkomstgebaseerde beloningen en vroege-stop vormgeving.
Op ultra-lange QA benchmarks van 32k tot 1M tokens, overtreft InfMem MemAgent met +10.17, +11.84 en +8.23 gemiddelde absolute nauwkeurigheidspunten op Qwen3-1.7B, Qwen3-4B en Qwen2.5-7B, respectievelijk.
Een 4B parameter InfMem-agent behoudt consistente nauwkeurigheid tot 1M tokens, waar standaard baselines zoals YaRN ineenstorten naar eencijferige prestaties. De inferentietijd daalt gemiddeld met 3.9x (tot 5.1x) via adaptieve vroege stop.
Deze winsten worden ook overgedragen naar LongBench QA, waar InfMem+RL tot +31.38 absolute verbetering op individuele taken bereikt ten opzichte van de YaRN-baseline.
Paper:
Leer effectieve AI-agents te bouwen in onze academie:

Boven
Positie
Favorieten
