Les agents LLM échouent lors de tâches longues. C'est là que l'ingénierie du contexte prend vraiment de l'importance. Les agents peuvent raisonner et utiliser des outils, mais les opérations prolongées entraînent une croissance illimitée du contexte et des erreurs accumulées. Des solutions courantes comme la compression de contexte ou le prompting augmenté par récupération imposent des compromis entre la fidélité de l'information et la stabilité du raisonnement. Cette nouvelle recherche introduit InfiAgent, un cadre qui maintient le contexte de raisonnement de l'agent strictement limité, peu importe la durée de la tâche. L'idée est d'externaliser l'état persistant dans une abstraction centrée sur les fichiers. Au lieu de tout entasser dans le contexte, l'agent maintient un espace de travail de fichiers qui persistent à travers les étapes. À chaque point de décision, il reconstruit le contexte à partir d'un instantané de l'état de l'espace de travail plus une fenêtre fixe d'actions récentes. Cela découple la durée de la tâche de la taille du contexte. Que la tâche prenne 10 étapes ou 1000, le contexte de raisonnement reste de la même longueur. C'est agréable car l'approche ne nécessite aucun ajustement spécifique à la tâche. L'agent fonctionne de la même manière, quel que soit le domaine. Des expériences sur DeepResearch et une tâche de revue de littérature de 80 articles montrent qu'InfiAgent avec un modèle open-source de 20B est compétitif avec des systèmes propriétaires plus grands. Il maintient une couverture à long terme substantiellement plus élevée que les références centrées sur le contexte. La revue de littérature de 80 articles est particulièrement révélatrice. C'est exactement le genre de tâche prolongée où les agents traditionnels accumulent des erreurs et perdent de vue ce qu'ils ont fait. L'externalisation de l'état basée sur des fichiers d'InfiAgent prévient cette dégradation. Article : Apprenez à construire des agents IA efficaces dans notre académie :