Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Gestion autonome de la mémoire dans les agents LLM
Les agents LLM ont du mal avec les tâches à long terme en raison de l'encombrement du contexte.
À mesure que l'historique des interactions s'allonge, les coûts computationnels explosent, la latence augmente et le raisonnement se dégrade à cause des distractions causées par des erreurs passées non pertinentes.
L'approche standard est uniquement additive : chaque pensée, appel d'outil et réponse s'accumule de manière permanente. Cela fonctionne pour des tâches courtes mais garantit l'échec pour une exploration complexe.
Cette recherche introduit Focus, une architecture centrée sur l'agent inspirée par la moisissure visqueuse (Physarum polycephalum). L'idée biologique : les organismes ne conservent pas des enregistrements parfaits de chaque mouvement à travers un labyrinthe. Ils conservent la carte apprise.
Focus donne aux agents deux nouvelles primitives : start_focus et complete_focus. L'agent décide de manière autonome quand consolider les apprentissages dans un bloc de connaissances persistant et taille activement l'historique brut des interactions. Pas de minuteries externes ou d'heuristiques forçant la compression.
Il déclare ce que vous enquêtez, explore en utilisant des outils standards, puis consolide en résumant ce qui a été tenté, ce qui a été appris et le résultat. Le système ajoute cela à un bloc de connaissances persistant et supprime tout entre le point de contrôle et l'étape actuelle.
Cela convertit un contexte en augmentation monotone en un motif en dents de scie : croissance pendant l'exploration, effondrement pendant la consolidation.
L'évaluation sur SWE-bench Lite avec Claude Haiku 4.5 montre que Focus atteint une réduction de 22,7 % des tokens (14,9M à 11,5M tokens) tout en maintenant une précision identique (60 % pour la ligne de base et Focus). Des instances individuelles ont montré des économies allant jusqu'à 57 %.
Un prompting agressif est important. Un prompting passif n'a donné que 6 % d'économies. Des instructions explicites pour compresser tous les 10-15 appels d'outils, avec des rappels du système, ont augmenté les compressions de 2,0 à 6,0 par tâche.
Des modèles capables peuvent s'auto-réguler de manière autonome leur contexte lorsqu'ils disposent des outils et du prompting appropriés, ouvrant des voies pour des systèmes agentiques conscients des coûts sans sacrifier la performance des tâches.
Article :
Apprenez à construire des agents IA efficaces dans notre académie :

Meilleurs
Classement
Favoris
