El vídeo reciente de Flexion Robotics sobre robots modulares es bastante llamativo, funcionando de forma constante y ordenada en terrenos complejos y escenarios de limpieza post-desastre, y el proyecto se completa con un alto grado de finalización Sin embargo, cuando estos robots realmente salen al exterior y se enfrentan a un entorno completamente incontrolable, no basta con que se vean bien. La verdadera dificultad no es si puede completar la tarea, sino por qué eligió esta acción en ese momento. ¿Es preciso el juicio del sistema de percepción sobre el entorno circundante? ¿Ha seguido siempre todo el proceso de toma de decisiones las normas básicas de seguridad y operación? Si estos problemas solo pueden resolverse revisando los registros después de los hechos, o escuchando lo que dice el fabricante, entonces el sistema es esencialmente una caja negra. En operaciones de campo, ayuda en desastres o lugares públicos, nadie se atreve a estar seguro de que la toma de decisiones independiente es una caja negra Para desplegar verdaderamente robots exteriores, deben existir registros verificables de toma de decisiones, no para revisar tras un accidente, sino para demostrar claramente que cada acción clave se basa en una percepción fiable, un razonamiento conforme y una ejecución rastreable. Solo cuando el bot empiece a asumir riesgos reales se puede confiar no solo en un vídeo demo chulo, sino también en un mecanismo riguroso y auditable de verificación #KaitoYap @KaitoAI #Yap @inference_labs