Bittensor $TAO Spotlight – Subred 2 | DSperse - Convertir la IA de "confía en mí" en "demuéstralo" DSperse está construyendo una de las piezas más fundamentales de la pila Bittensor: una capa de confianza para la inferencia de IA. A medida que los sistemas de IA avanzan hacia dominios importantes como el comercio, la robótica, la sanidad y la automatización, el mayor riesgo ya no es la capacidad, sino la verificabilidad. Si un agente de IA toma una decisión, ¿cómo sabes que realmente ejecutó el modelo previsto sin ser manipulado o falsificado? DSperse existe para responder a esa pregunta criptográficamente. Demostración de la inferencia La mayoría de la IA hoy en día opera sobre supuestos de confianza. DSperse reemplaza esas suposiciones por la Prueba de Inferencia (PoI) utilizando aprendizaje automático de conocimiento cero (zkML). En lugar de confiar en que una IA funcionó correctamente, DSperse deja que la red lo demuestre, matemáticamente. Muy importante sin revelar: 🔸 Los pesos del modelo 🔸 La lógica interna 🔸 Las entradas privadas El resultado: salidas de IA verificables, privadas y resistentes a manipulaciones. Explicación de alto nivel de la Subred 2 Dsperse verifica los modelos de IA mediante estos 4 pasos: 1️⃣ Descomposición de modelos Los mineros dividen el modelo en componentes más pequeños y verificables, centrándose solo en las partes que importan para garantizar la corrección. 2️⃣ Demostración de conocimiento cero...