Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Estructura de garantía de confianza para el entrenamiento y validación de modelos de IA descentralizados y transparentes
@gensynai , @nesaorg , @DeepNodeAI
Al entrenar y validar modelos de IA en un entorno distribuido, la primera premisa a considerar es que no se puede asumir que todos los participantes actúan siempre de manera honesta. En la práctica, se han identificado patrones de fallo concretos, como el free-riding, donde los nodos de cálculo devuelven resultados plausibles pero no verificados para reducir costos operativos, la inserción maliciosa de datos de entrenamiento que provoca envenenamiento de datos, la presentación de oraciones completadas manipuladas durante el proceso de aprendizaje reforzado, la manipulación de gradientes que no se manifiesta estadísticamente, y situaciones en las que varios nodos coluden para distorsionar la estructura de consenso. Estos riesgos explican por qué es necesario un mecanismo que garantice técnicamente la transparencia y la confianza.
Para abordar este problema, Gensyn propone una estructura centrada en la ejecución que toma la propia ejecución de cálculos como objeto de verificación. En esta estructura, las tareas de aprendizaje automático se descomponen en gráficos de cálculo deterministas a nivel de operador reproducible, diseñados para que la misma operación se reproduzca de manera idéntica, bit a bit, en diferentes entornos de hardware. El protocolo Verde combina la delegación de arbitraje y juegos bipartitos para identificar el primer punto de operación donde los resultados de cálculo divergen, manteniendo la eficiencia al volver a ejecutar solo la parte donde se produjo la disputa. La compensación económica se maneja en un rollup basado en Ethereum, y aunque el cálculo a gran escala se realiza fuera de la cadena, se resume que la precisión de los resultados está garantizada criptográficamente siempre que exista al menos un nodo honesto.
Dentro del mismo stack, Delphi de Gensyn tiene la función de validar no cómo se realizó el cálculo, sino cuán bien funciona el modelo resultante. Delphi organiza la evaluación del rendimiento del modelo en forma de mercado predictivo, permitiendo que los participantes apuesten sobre los resultados de rendimiento y confirmando los resultados de manera transparente a través de una lógica de juicio en cadena. Este proceso se basa más en la verificación estadística y los incentivos económicos que en pruebas criptográficas, pero actúa como un mecanismo que proporciona transparencia al registrar públicamente los criterios de evaluación y los resultados.
Por otro lado, Nesa adopta una estructura que prioriza la protección de la privacidad sobre la transparencia. Nesa divide el modelo en varias piezas a través de un sharding de redes neuronales secuenciales basado en blockchain y aplica técnicas de distribución homomórfica de secretos en embeddings cifrados para que ningún nodo individual pueda ver el modelo completo o los datos completos. Este enfoque se centra en el ajuste fino eficiente de parámetros utilizando adaptadores en lugar de entrenar el modelo completo desde el principio, y se caracteriza por mantener los límites de privacidad a través de un procedimiento que valida los resultados de inferencia realizados fuera de la cadena en la cadena. Sin embargo, se observa una limitación estructural, ya que el proceso de cálculo está cifrado, lo que dificulta la reproducción o verificación directa de los cálculos desde el exterior.
DeepNode AI aborda la transparencia desde otra dirección. Este sistema utiliza un mecanismo de mercado basado en la evaluación mutua entre nodos y staking en lugar de pruebas criptográficas sobre el proceso de cálculo. Cada sistema inteligente evalúa la información de salida de otros sistemas y las recompensas se distribuyen según una función de pérdida ponderada por stake. A través de interacciones repetidas, se forma una reputación y se imponen penalizaciones por presentaciones incorrectas, y esta presión económica alinea el comportamiento de los participantes. Esta estructura no proporciona pruebas criptográficas, pero se distingue por construir confianza al revelar transparentemente las motivaciones de participación.
Al combinar estos enfoques, se puede observar que la transparencia en el entrenamiento y validación de IA descentralizada no es un concepto único, sino que se realiza en múltiples niveles. Verde de Gensyn valida la ejecución de tareas, Delphi valida el rendimiento de los resultados, DeepNode valida las contribuciones y la integridad de los participantes, mientras que Nesa se centra en minimizar la exposición de datos y modelos en todo este proceso. Al mismo tiempo, se revela claramente la tensión de que los cálculos cifrados limitan la reproducibilidad y la posibilidad de auditoría directa, y que una estructura que exige una reproducibilidad completa casi no proporciona privacidad de datos.
Como resultado, se evalúa que el actual stack de IA descentralizada no ha resuelto completamente problemas como la procedencia y autenticidad de los datos de entrenamiento, la sincronización de gradientes en un entorno global y la coordinación entre diferentes sistemas económicos. Sin embargo, se destaca que diferentes mecanismos, como la verificación de cálculos, la evaluación de rendimiento, los incentivos económicos y la protección de la privacidad, proporcionan transparencia dentro de un rango verificable, lo que hace que la estructura de entrenamiento y validación de modelos de IA descentralizados y transparentes esté relativamente clara.



Parte superior
Clasificación
Favoritos
