🚨 Tout le monde demande pourquoi les agents IA s'effondrent dès que l'on passe au-delà de la démo. Cet article de Google DeepMind, Meta, Amazon et Yale donne discrètement la réponse inconfortable. Les LLM d'aujourd'hui ne raisonnent pas. Ils réagissent. Ils génèrent un texte fluide, token par token, mais ils ne planifient pas, ne réfléchissent pas et ne décident pas quand s'arrêter et repenser. Ils semblent intelligents parce que le langage est leur force, pas parce que leur jugement l'est. L'article soutient que le véritable progrès vient de la transformation des LLM en raisonneurs agentiques. Des systèmes capables de fixer des objectifs, de les décomposer en sous-objectifs, de choisir des actions, d'évaluer des résultats et de changer de stratégie en cours de route. Ils formalisent le raisonnement comme une boucle, pas comme une invite : observer → planifier → agir → réfléchir → mettre à jour l'état → répéter C'est le changement clé. Au lieu d'une longue chaîne de pensée, le modèle maintient un état de tâche interne. Il décide de quoi penser ensuite, pas seulement comment finir la phrase. C'est pourquoi les CoT plus longs stagnent. Vous obtenez plus de mots, pas de meilleures décisions. Une des idées les plus percutantes : le raisonnement s'effondre lorsque le contrôle et le raisonnement sont mélangés. Lorsqu'une seule invite essaie de planifier, d'exécuter, de critiquer et de finaliser, les erreurs s'accumulent silencieusement. Les systèmes agentiques séparent les rôles. La planification est explicite. L'exécution est limitée. La réflexion est retardée et structurée. L'article montre des gains dramatiques simplement en donnant aux modèles : • des objectifs intermédiaires explicites • des points de contrôle pour l'auto-évaluation • la permission d'abandonner de mauvaises voies...