Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
LLM-agenter bryter sammen på lange oppgaver.
Det er her kontekstteknikk virkelig betyr noe.
Agenter kan resonnere og bruke verktøy, men utvidede operasjoner fører til ubegrenset kontekstvekst og akkumulert feil.
Vanlige løsninger som kontekstkomprimering eller avveininger mellom informasjonsnøyaktighet og resonnementstabilitet med hentingsforsterket prompting.
Denne nye forskningen introduserer InfiAgent, et rammeverk som holder agentens resonnementskontekst strengt begrenset uansett hvor lenge oppgaven varer.
Ideen er å eksternalisere vedvarende tilstand inn i en fil-sentrert abstraksjon. I stedet for å presse alt inn i kontekst, opprettholder agenten et arbeidsområde med filer som vedvarer på tvers av trinn. Ved hvert beslutningspunkt rekonstruerer den kontekst fra et øyeblikksbilde av arbeidsområdets tilstand pluss et fast vindu med nylige handlinger.
Dette frikobler oppgavens varighet fra kontekststørrelsen. Enten oppgaven tar 10 steg eller 1000, forblir resonnementets kontekst den samme lengden.
Dette er fint fordi tilnærmingen ikke krever oppgavespesifikk finjustering. Agenten opererer på samme måte uavhengig av domene.
Eksperimenter på DeepResearch og en litteraturgjennomgang med 80 artikler viser at InfiAgent med en 20B åpen kildekode-modell er konkurransedyktig med større proprietære systemer. Den opprettholder betydelig høyere langsiktig dekning enn kontekstsentrerte baselines.
Den 80 artikler lange litteraturgjennomgangen er spesielt talende. Det er akkurat den typen langvarige oppgaver hvor tradisjonelle agenter samler opp feil og mister oversikten over hva de har gjort. InfiAgents filbaserte tilstandseksternalisering forhindrer denne forringelsen.
Artikkel:
Lær å bygge effektive AI-agenter i vår akademi:

Topp
Rangering
Favoritter
