Si vous ne pouvez pas voir ce que fait un agent, vous ne pouvez pas l'améliorer, vous ne pouvez pas le déboguer et vous ne pouvez pas lui faire confiance. C'est fou combien d'équipes construisent des agents sans moyen de comprendre ce qu'ils font. Littéralement ZERO observabilité. C'est probablement l'une des premières questions que je pose à chaque nouvelle équipe que je rencontre : Pouvez-vous me montrer les traces de quelques exécutions de vos agents ? Nada. Zéro. Rien. Les grands modèles de langage prennent de mauvaises décisions tout le temps. Les agents échouent, et vous ne vous en rendrez pas compte jusqu'à ce que quelqu'un se plaigne. Au minimum, chaque agent que vous construisez devrait produire des traces montrant le flux complet de la requête, l'analyse de latence et les métriques de performance au niveau système. Cela à lui seul mettra en lumière 80 % des problèmes opérationnels. Mais idéalement, vous pouvez faire quelque chose de bien meilleur et capturer tout ce qui suit : • Interactions de modèle • Utilisation des tokens • Métadonnées de timing et de performance • Exécution d'événements Si vous voulez des agents fiables, l'observabilité n'est pas optionnelle.