Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
LLM-agenter går sönder vid långa uppgifter.
Det är här kontextingenjörskonst verkligen spelar roll.
Agenter kan resonera och använda verktyg, men utökade operationer orsakar obegränsad kontexttillväxt och ackumulerade fel.
Vanliga lösningar som kontextkomprimering eller återhämtningsförstärkt prompt tvingar fram avvägningar mellan informationstrohet och resonemangsstabilitet.
Denna nya forskning introducerar InfiAgent, ett ramverk som håller agentens resonemangskontext strikt begränsad oavsett hur länge uppgiften pågår.
Idén är att externalisera persistent tillstånd till en filcentrerad abstraktion. Istället för att trycka in allt i sitt sammanhang underhåller agenten en arbetsyta med filer som består över steg. Vid varje beslutspunkt rekonstruerar den kontext från en arbetsytsstatussnapshot plus ett fast fönster med senaste åtgärder.
Detta frikopplar uppgiftens längd från kontextstorleken. Oavsett om uppgiften tar 10 steg eller 1000 steg förblir resonemangskontexten lika lång.
Detta är trevligt eftersom metoden inte kräver någon uppgiftsspecifik finjustering. Agenten fungerar på samma sätt oavsett domän.
Experiment på DeepResearch och en litteraturöversikt med 80 artiklar visar att InfiAgent med en 20B öppen källkodsmodell är konkurrenskraftig med större proprietära system. Den upprätthåller avsevärt högre långsiktig täckning än kontextcentrerade baslinjer.
Den 80-artiklar långa litteraturöversikten är särskilt talande. Det är precis den typen av utdragna uppgifter där traditionella agenter samlar på sig fel och tappar bort vad de har gjort. InfiAgents filbaserade tillståndsexternalisering förhindrar denna försämring.
Papper:
Lär dig att bygga effektiva AI-agenter i vår akademi:

Topp
Rankning
Favoriter
