Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Estructura de Garantía de Confianza para el Entrenamiento y Verificación de Modelos de IA Descentralizados Transparentes
@gensynai , @nesaorg , @DeepNodeAI
La primera premisa considerada al entrenar y validar modelos de IA en un entorno distribuido es que es imposible asumir que todos los participantes siempre se comportarán con honestidad. En casos reales de investigación y operación, se han identificado fallos específicos, como el freeriding en el que los nodos de cómputo demuestran resultados plausibles pero no verificados para reducir costes computacionales, el envenenamiento de datos debido a la inserción maliciosa de datos de entrenamiento, la manipulación manipulada de la declaración de completación en el proceso de aprendizaje por refuerzo, la manipulación de gradientes que no se revela estadísticamente y situaciones en las que múltiples nodos coluden para distorsionar la estructura de consenso. Estos riesgos proporcionan un punto de partida para explicar por qué son necesarios mecanismos que garanticen técnicamente la transparencia y la confianza.
Para abordar este problema, Gensyn propone una estructura orientada a la ejecución que toma el cálculo como objeto de verificación. En esta estructura, la tarea de aprendizaje automático se descompone en grafos computacionales deterministas reproducibles a nivel de operador, y la misma operación está diseñada para reproducirse por igual bit a bit en diferentes entornos de hardware. El protocolo Verde combina la delegación de arbitraje con un juego dicotómico para encontrar el primer punto de operación donde el resultado del cálculo está desalineado y rehacerlo con una reejecución mínima de la parte en disputa, manteniendo la eficiencia. Los ajustes económicos se gestionan en los rollups basados en Ethereum, y las operaciones reales a gran escala se realizan fuera de la cadena, pero la característica clave es que la precisión de los resultados está garantizada criptográficamente si existe al menos un nodo honesto.
Dentro de la misma pila, los Delphi de Gensin son responsables de verificar qué tan bien funciona el modelo resultante, no de cómo se realizaron los cálculos. Delphi organiza evaluaciones de rendimiento de modelos en forma de mercados de predicción, permite a los participantes apostar sobre los resultados de rendimiento y determina los resultados de forma transparente mediante lógica de juicio en cadena. Este proceso se basa en la verificación estadística e incentivos económicos más que en pruebas criptográficas, pero funciona como un mecanismo que proporciona transparencia en cuanto a que los criterios y resultados de evaluación se registren públicamente.
NESA, por otro lado, adopta una estructura que prioriza la protección de la privacidad sobre la transparencia. NESA utiliza fragmentación de redes neuronales secuenciales basadas en blockchain para dividir el modelo en varias partes y aplica técnicas de distribución secreta isomorfa para cifrado isomorfo e incrustaciones cifradas, de modo que ningún nodo pueda ver el modelo completo ni los datos completos. Este enfoque se centra en el ajuste fino eficiente de parámetros usando adaptadores en lugar de entrenar todo el modelo desde cero, y se caracteriza por mantener límites de privacidad mediante procedimientos que verifican los resultados de la inferencia realizada fuera de la cadena en cadena. Sin embargo, dado que el proceso de cálculo está cifrado, también existe una limitación estructural que dificulta reproducir o verificar directamente la operación desde fuera.
DeepNode AI aborda la transparencia en otra dirección. El sistema utiliza un mecanismo de mercado basado en la evaluación mutua y el staking entre nodos en lugar de pruebas criptográficas de procesos computacionales. Cada sistema inteligente evalúa la información de salida del otro sistema, y la recompensa se distribuye según la función de pérdida ponderada por stake. La reputación se forma a través de interacciones repetidas, se imponen sanciones por envíos incorrectos y esta presión económica sirve para alinear el comportamiento de los participantes. Esta estructura se distingue por el hecho de que, aunque no proporciona pruebas criptográficas, genera confianza de una manera que revela de forma transparente la motivación para participar.
En conjunto, estos enfoques muestran que la transparencia en el entrenamiento y la verificación descentralizada de IA no es un concepto único, sino que se está realizando en múltiples capas. Gensy's Verde verifica si una tarea se ha realizado, Delphi verifica el rendimiento de los resultados, y DeepNode verifica las contribuciones e integridad de los participantes de diferentes maneras, todas ellas centradas en minimizar la exposición de datos y modelos en el proceso. Al mismo tiempo, la tensión también es evidente: los cálculos cifrados limitan la reproducibilidad y la auditabilidad directa, y las estructuras que requieren reproducibilidad total ofrecen poca privacidad de los datos.
Como resultado, la pila actual de IA descentralizada se evalúa como que no aborda completamente cuestiones como la procedencia y autenticidad de los datos de entrenamiento, la sincronización de gradientes en un entorno global y la coordinación entre diferentes sistemas económicos. No obstante, está relativamente claro qué elementos estructurales consisten en el entrenamiento y verificación transparente y descentralizado de modelos de IA, ya que diferentes mecanismos como la verificación computacional, la evaluación del rendimiento, los incentivos económicos y la protección de la privacidad proporcionan transparencia dentro del ámbito de la verificabilidad.
$NESA



Populares
Ranking
Favoritas
