Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
NY forskning om att förbättra minnet för AI-agenter.
(bokmärk den)
När kontextfönster skalar till miljontals tokens skiftar flaskhalsen från rå kapacitet till kognitiv kontroll. Att veta vad du kan, veta vad som saknas och veta när du ska sluta är viktigare än att bearbeta varje token.
Längre kontextfönster garanterar inte bättre resonemang. Detta beror till stor del på att sättet utvecklare hanterar ultralånga dokument idag fortfarande utökar kontextfönstret eller komprimerar allt i ett enda pass.
Men när avgörande bevis är sparsamma och utspridda över en miljon tokens, kastar passiva minnesstrategier tyst bort de övergångsfakta som behövs för multi-hop-resonemang.
Denna nya forskning introducerar InfMem, en agent med begränsat minne som tillämpar System-2-liknande kognitiv kontroll på långdokumentfrågor genom ett strukturerat PRETHINK–RETRIEVE–WRITE-protokoll.
Istället för att passivt komprimera varje segment när det strömmar igenom, övervakar InfMem aktivt om dess minne är tillräckligt för att besvara frågan. Är de nuvarande bevisen tillräckliga? Vad saknas? Var i dokumentet ska jag leta?
PRETHINK fungerar som en kognitiv kontrollant som avgör om man ska stoppa eller hämta mer bevis. När det finns bevisluckor syntetiserar den en riktad återsökningsfråga och hämtar relevanta passager från var som helst i dokumentet, inklusive tidigare avsnitt som redan passerats. WRITE utför sedan gemensam komprimering, där återhämtade bevis integreras med det aktuella segmentet i ett begränsat minne under en fast budget.
Träningsreceptet använder en SFT-uppvärmning för att lära ut protokollmekanik genom destillation från Qwen3-32B, därefter anpassar förstärkningsinlärning hämtning, skrivande och stoppbeslut med slutuppgiftens korrekthet med hjälp av resultatbaserade belöningar och tidig stoppformning.
På ultralånga QA-benchmarks från 32k till 1M tokens överträffar InfMem MemAgent med +10,17, +11,84 och +8,23 genomsnittliga absoluta träffsäkerhetspoäng på Qwen3-1,7B, Qwen3-4B och Qwen2,5-7B, respektive.
En InfMem-agent med 4B parameter upprätthåller konsekvent noggrannhet upp till 1 miljoner tokens, där standardbaslinjer som YaRN kollapsar till ensiffrig prestanda. Inferenslatensen minskar i genomsnitt med 3,9x (upp till 5,1x) via adaptiv tidig stoppning.
Dessa vinster överförs också till LongBench QA, där InfMem+RL uppnår upp till +31,38 absolut förbättring på enskilda uppgifter jämfört med YaRN:s baslinje.
Papper:
Lär dig att bygga effektiva AI-agenter i vår akademi:

Topp
Rankning
Favoriter
