Si no puedes ver lo que hace un agente, no puedes mejorarlo, no puedes depurarlo y no puedes confiar en él. Es una locura cuántos equipos están construyendo agentes sin forma de entender lo que están haciendo. Literalmente, ZERO observabilidad. Probablemente esta sea una de las primeras preguntas que hago a cada nuevo equipo que conozco: ¿Puedes mostrarme las trazas de algunas ejecuciones de tus agentes? Nada. Cero. Nulo. Los modelos de lenguaje grandes toman malas decisiones todo el tiempo. Los agentes fallan, y no te darás cuenta hasta que alguien se queje. Como mínimo, cada agente que construyas debería producir trazas que muestren el flujo completo de solicitudes, análisis de latencia y métricas de rendimiento a nivel de sistema. Esto solo hará que surjan el 80% de los problemas operativos. Pero idealmente, puedes hacer algo mucho mejor y capturar todo lo siguiente: • Interacciones del modelo • Uso de tokens • Metadatos de tiempo y rendimiento • Ejecución de eventos Si quieres agentes confiables, la observabilidad no es opcional.