A medida que el modelo crece y es más capaz, surge un problema que se vuelve cada vez más evidente, y la velocidad de verificación no puede seguir el ritmo de la complejidad y la rapidez de la inferencia Cuando el proceso de razonamiento se vuelve cada vez más parecido a una caja negra, la fuente del modelo es incierta y el camino de ejecución no puede reproducirse completamente, la confianza comienza a fallar. No porque deba estar mal, sino porque simplemente no podemos demostrar que es cierto Esto se llama brecha de verificación. La IA no es lo suficientemente inteligente, pero carece de una forma fiable para que todos confirmen de qué modelo proviene el resultado, en qué entorno y si se ejecutó estrictamente según las reglas Lo que Inference Labs quiere hacer es en realidad bastante sencillo, haciendo que cada salida de IA venga acompañada de una huella digital cifrada. No es una explicación a posteriori, ni depende de la garantía del fabricante, sino de un certificado que cualquiera puede verificar y verificar de forma permanente, y la identidad, fuente e integridad de ejecución quedan bloqueadas en el momento de la salida Solo cuando el sistema es auditable puede ser realmente confiable, y solo cuando la confianza sea demostrable se podrá implementar de forma segura a gran escala. Esa es la dirección que están impulsando #KaitoYap @KaitoAI #Yap @inference_labs