Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Autonom minnehåndtering i LLM-agenter
LLM-agenter sliter med oppgaver på lang sikt på grunn av kontekstoppblåsing.
Etter hvert som interaksjonshistorikken vokser, eksploderer beregningskostnadene, latenstiden øker, og resonneringen forringes på grunn av distraksjon fra irrelevante tidligere feil.
Standardtilnærmingen er kun append: hver tanke, verktøykall og respons akkumuleres permanent. Dette fungerer for korte oppgaver, men garanterer fiasko ved kompleks utforskning.
Denne forskningen introduserer Focus, en agent-sentrert arkitektur inspirert av slimmugg (Physarum polycephalum). Den biologiske innsikten: organismer har ikke perfekte registreringer av hver bevegelse gjennom en labyrint. De beholder det lærte kartet.
Focus gir agenter to nye primitive: start_focus og complete_focus. Agenten bestemmer autonomt når læring skal konsolideres i en vedvarende kunnskapsblokk og beskjærer aktivt den rå interaksjonshistorikken. Ingen eksterne timere eller heuristikker som tvinger komprimering.
Den erklærer hva du undersøker, utforsker bruk av standardverktøy, og konsoliderer deretter ved å oppsummere hva som ble forsøkt, hva som ble lært, og resultatet. Systemet legger dette til en vedvarende kunnskapsblokk og sletter alt mellom sjekkpunktet og det nåværende steget.
Dette omdanner monotont økende kontekst til et sagtannmønster: vekst under leting, kollaps under konsolidering.
Evaluering av SWE-bench Lite med Claude Haiku 4.5 viser at Focus oppnår 22,7 % token-reduksjon (14,9 millioner til 11,5 millioner tokens) samtidig som den opprettholder identisk nøyaktighet (60 % for både baseline og Focus). Enkelttilfeller viste besparelser på opptil 57 %.
Aggressiv påminnelse er viktig. Passiv prompting ga bare 6 % besparelse. Eksplisitte instruksjoner om å komprimere hver 10-15. verktøykall, med systempåminnelser, økte komprimeringen fra 2,0 til 6,0 per oppgave.
Kapable modeller kan autonomt selvregulere sin kontekst når de får passende verktøy og oppfordring, og åpner veier for kostnadsbevisste agentiske systemer uten å ofre oppgaveytelsen.
Artikkel:
Lær å bygge effektive AI-agenter i vår akademi:

Topp
Rangering
Favoritter
