Recientemente, he copiado algunos tuits de Inference Labs, que tienen mucho sentido, el modelo de IA se está haciendo cada vez más grande, pero la brecha de verificación se está haciendo cada vez más profunda. Todo el proceso de razonamiento se está volviendo cada vez más opaco, y no hay forma de verificar de dónde proviene la salida ni cómo se ha difundido paso a paso, y la sensación de confianza se reduce naturalmente mucho Su solución es simple y directa, pero especialmente impactante, añadiendo una prueba criptográfica a cada salida de IA, similar a un hash de transacción en la blockchain, que no puede ser manipulada y puede verificarse en cualquier momento. De este modo, el contenido generado por IA ya no es lo que dices, sino que puede verificarse directamente mediante criptografía ¿No es esta la carencia que web3 más necesita compensar? La descentralización ha desplazado la confianza de las instituciones hacia el código y los mecanismos de criptografía, y ahora que la IA se va a implementar a gran escala, si es que sigue siendo una caja negra, ¿quién se atreve a entregarle fondos, datos y decisiones clave de forma segura Con esta prueba criptográfica, la autenticación de identidad, la seguridad y la rendición de cuentas pueden implementarse realmente la trazabilidad para lograr un sistema autónomo auditable. Por muy poderosa que sea la IA, debe entenderse y verificarse, porque si no, por muy grande que sea el modelo, solo será un generador de mentiras más refinado #KaitoYap @KaitoAI #Yap @inference_labs