LLM-agenten falen bij lange taken. Hier komt contextengineering echt om de hoek kijken. Agenten kunnen redeneren en tools gebruiken, maar uitgebreide operaties veroorzaken onbeperkte contextgroei en opgetelde fouten. Veelvoorkomende oplossingen zoals contextcompressie of retrieval-augmented prompting dwingen tot afwegingen tussen informatiegetrouwheid en redeneringsstabiliteit. Dit nieuwe onderzoek introduceert InfiAgent, een framework dat de redeneringscontext van de agent strikt begrensd houdt, ongeacht hoe lang de taak duurt. Het idee is om de persistente staat extern te maken in een bestand-gecentreerde abstractie. In plaats van alles in de context te proppen, onderhoudt de agent een werkruimte van bestanden die over stappen heen blijven bestaan. Op elk beslissingspunt reconstruert het de context vanuit een snapshot van de werkruimte plus een vaste venster van recente acties. Dit ontkoppelt de duur van de taak van de grootte van de context. Of de taak nu 10 stappen of 1000 stappen duurt, de redeneringscontext blijft dezelfde lengte. Dit is fijn omdat de aanpak geen taak-specifieke fine-tuning vereist. De agent opereert op dezelfde manier, ongeacht het domein. Experimenten op DeepResearch en een literatuurreview van 80 artikelen tonen aan dat InfiAgent met een 20B open-source model concurrerend is met grotere propriëtaire systemen. Het behoudt aanzienlijk hogere dekking op lange termijn dan context-gecentreerde baselines. De literatuurreview van 80 artikelen is bijzonder onthullend. Dat is precies het soort uitgebreide taak waarbij traditionele agenten fouten accumuleren en het overzicht verliezen van wat ze hebben gedaan. InfiAgent's bestand-gebaseerde staatsexternalisatie voorkomt deze degradatie. Paper: Leer effectieve AI-agenten te bouwen in onze academie: