Validación de datos en la computación descentralizada de IA: tres enfoques para garantizar la integridad en un entorno distribuido @OpenledgerHQ , @gensynai , @OpenGradient Dado que la computación descentralizada de IA es una estructura en la que múltiples participantes comparten datos y cálculos, cómo asegurar la confianza surge como un tema más importante que el método existente que dependía de un servidor central. En este sentido, se presentan OpenLedger, Gensyn y OpenGradient como proyectos responsables de la verificación en diferentes etapas de datos, aprendizaje e inferencia. Gensyn pretende ser una red de aprendizaje distribuida que reúna recursos informáticos inactivos dispersos por todo el mundo para entrenar modelos de IA. Para permitir el aprendizaje incluso en entornos donde la comunicación es lenta y el rendimiento del dispositivo es diferente, se proponen métodos de aprendizaje de baja comunicación como NoLoCo y técnicas de recuperación de fallos como CheckFree. Al mismo tiempo, verifica si el cálculo del entrenamiento se realizó correctamente mediante el protocolo Verde y, si los resultados son diferentes, utiliza una estructura que juzga repitiendo solo un paso específico de la operación sin repetir todo el entrenamiento. Para ello, se utiliza la biblioteca RepOps para forzar el determinismo y obtener los mismos resultados de cálculo en hardware diferente. Sin embargo, esta verificación confirma la precisión de los cálculos para una entrada dada y no determina automáticamente si los datos utilizados para el entrenamiento están contaminados de antemano. OpenLedger se centra en rastrear el origen y el historial de cambios de los propios datos utilizados para el entrenamiento. Los contribuyentes de datos envían archivos en un formato predeterminado a Datanet, y estas contribuciones se registran en cadena para que puedan ver cuándo y qué datos se han utilizado en qué versión. Está diseñado para limitar el tamaño del archivo y la frecuencia de subida, y para pasar por procesos de aprobación y revisión de versiones para reducir la infiltración indiscriminada de datos. Se explica la estructura para frenar las contribuciones maliciosas o duplicadas mediante evaluaciones de calidad y sanciones basadas en staking, dejando claro que el objetivo es garantizar la rendición de cuentas y la trazabilidad de las contribuciones de datos. OpenGradient es responsable de verificar si el proceso se ejecutó correctamente cuando el modelo realmente realizó la inferencia tras el entrenamiento. Deja una prueba criptográfica o basada en hardware con el resultado de la inferencia y regístrala en el Gradient Ledger para que el resultado pueda ser auditado a posteriori. Para reducir la carga de rendimiento, los cálculos pesados se procesan en paralelo fuera de la cadena, mientras que los resultados y demostraciones en cadena solo se verifican. El método de verificación es ZKML, que ofrece una alta garantía pero tiene un alto coste computacional; TEE, que asume la confianza del hardware con casi ninguna carga de rendimiento; y el método Vanilla, que omite la verificación. Al juntar estos tres proyectos, se revela la división de roles: OpenLedger registra qué datos llegan, Gensyn comprueba si el entrenamiento se realizó correctamente con esos datos a nivel computacional, y OpenGradient verifica si el modelo entrenado realizó correctamente la inferencia. Sin embargo, a enero de 2026, estas etapas no están conectadas por una única cadena formal de tecnología, y no se han propuesto estándares para vincular la prueba de fuentes de datos, la verificación de aprendizaje y la verificación de inferencia en una cadena de demostración continua. Al final, la verificación descentralizada actual de datos por IA puede entenderse como un estado en el que diferentes capas de dispositivos, como el registro de datos, el aprendizaje, la verificación de cálculos y la verificación por inferencia, se desarrollan en paralelo con roles y limitaciones claras, en lugar de un "sistema que garantice todo a la vez". $OPEN