Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Automatización de la verificación de inferencia por aprendizaje automático de conocimiento cero en redes de computación descentralizadas
@inference_labs , @OpenGradient , @nesaorg
El problema de verificar que los resultados de la inferencia de inteligencia artificial se calculen correctamente en una red de computación distribuida tiene restricciones complejas que difieren de las de un entorno de servidor central. Esto se debe a que, en una estructura donde varios participantes ejecutan el mismo modelo en diferentes entornos de hardware y software, es difícil asumir la fiabilidad de los resultados del cálculo de antemano. En este contexto, el aprendizaje automático de conocimiento cero ha surgido como una tecnología que demuestra criptográficamente que una salida específica se generó procesando una entrada concreta de forma fija a través de un modelo fijo. Este método se evalúa como un medio adecuado para un entorno distribuido, ya que puede verificar la legitimidad de la ejecución sin revelar el proceso de cálculo al exterior.
Sin embargo, el razonamiento de la inteligencia artificial es inherentemente indeterminante. Debido a la naturaleza no acoplada de las operaciones en punto flotante, incluso la misma operación presenta diferencias sutiles en los resultados dependiendo del orden de cálculo o la implementación del hardware, y esta diferencia es aún más pronunciada en entornos GPU que utilizan operaciones paralelas. Las redes distribuidas abarcan una amplia gama de equipos, desde GPUs de consumo hasta aceleradores especializados, lo que resulta en desviaciones computacionales debido a diferencias en sistemas operativos, controladores, estructuras de memoria y conjuntos de instrucciones. Dado que la verificación criptográfica requiere acuerdos bit a bit, estas diferencias ambientales pueden provocar fallos en la verificación.
Para resolver este problema, el sistema zkML cuantiza operaciones de punto flotante a punto fijo y convierte operaciones de redes neuronales en formas aritméticas de circuitos. Frameworks como JSTprove, EZKL y RISC Zero representan convoluciones, multiplicaciones matriciales y funciones de activación como conjuntos de restricciones, haciendo que el proceso de inferencia sea demostrable. Este proceso aumenta rápidamente con la profundidad y el tamaño del modelo, y el tiempo y el uso de memoria necesarios para generar demostraciones también aumentan de forma no lineal. Las mediciones reales muestran que las pruebas de zkML para todo el modelo requieren de miles a decenas de miles de veces más costes que recalcular la misma inferencia.
Esta estructura de costes es una restricción clave al diseñar la verificación automática de inferencia en una red distribuida. Si el coste de generar una demostración es mayor que dudar del resultado de la inferencia, la verificación pierde su significado económico. Como resultado, los sistemas del mundo real están adoptando una estrategia de verificar selectivamente solo operaciones clave o partes sensibles en lugar de demostrar el modelo completo. DSperse de Inference Labs reduce significativamente el uso de memoria y los costes de pruebas al descomponer el modelo en múltiples segmentos y circuitar, demostrando solo las partes donde la fiabilidad es especialmente importante. Este método no proporciona una prueba completa de todo el cálculo, pero contribuye a garantizar la eficiencia de la verificación en comparación con el coste.
La cadena de verificación automatizada se basa en esta estrategia opcional de verificación. La tubería JSTprove de Inference Labs convierte el modelo en punto fijo, compila el grafo de formato ONNX en un circuito aritmético y genera demostraciones mediante un sistema de demostración basado en GKR. Las demostraciones generadas se verifican tanto en cadena como fuera de la cadena y, en realidad, un gran número de demostraciones se procesan periódicamente en una red descentralizada específica. OpenGradient está diseñado para procesar múltiples solicitudes de inferencia simultáneamente a través de una estructura de ejecución paralela llamada PIPE, y cada solicitud puede elegir entre zkML, entorno de ejecución confiable o ejecución no verificada. Esto ajusta los costes de validación para que no se conviertan en un cuello de botella directo para la generación de bloques o el rendimiento general.
NESA adopta un enfoque que combina la automatización de validación con protección computacional. Utiliza una estructura que distribuye los datos de entrada entre múltiples nodos mientras está cifrado, realiza inferencias en fragmentos cifrados y luego agrega los resultados. En este proceso, la selección de nodos y la asignación de roles se coordinan mediante números aleatorios verificables y criptografía crítica, y se disuade el fraude mediante un proceso de pasos de commit y divulgación. Este enfoque garantiza no solo la integridad de los resultados de la inferencia, sino también la confidencialidad de las entradas y parámetros del modelo.
La integración de la verificación basada en zkML en redes informáticas descentralizadas aclara la separación de roles entre ejecución y verificación. La estrategia de paralelización de OpenGradient permite procesar múltiples inferencias simultáneamente mientras se gestiona el proceso de validación por separado, mientras que la capa de coordinación de NESA es responsable de distribuir roles e incentivar entre nodos. La capa de prueba de Inference Labs es responsable de verificar criptográficamente que los cálculos reales se realizaron correctamente. A medida que cada capa está separada, la verificación automatizada se implementa mediante la combinación de múltiples componentes en lugar de una sola tecnología.
La estructura de incentivos también es un elemento clave de la automatización. Nesa anima a los nodos participantes a actuar con honestidad mediante una estructura de staking y divulgación de compromisos, mientras que Inference Labs distribuye recompensas basadas en la capacidad y precisión de generación de pruebas. Los servicios basados en gemelos digitales de OpenGradient traducen el derecho a acceder a resultados verificados de inferencia en valor económico. Estas estructuras están diseñadas para mantener un cierto nivel de confianza incluso sin un administrador central.
No obstante, la verificación automática de inferencia zkML tiene limitaciones claras. La asimetría entre el coste de generar un resultado incorrecto y el coste de demostrar un resultado correcto deja la posibilidad de un ataque. Los errores en el proceso de conversión de circuitos, los retrasos en la generación de pruebas, la colusión entre nodos y las desviaciones computacionales debidas a errores de hardware no pueden eliminarse completamente con la tecnología actual. Los sistemas mitigan estos riesgos mediante prácticas de replicación, reputación y sanciones económicas, pero no los eliminan fundamentalmente.
En conjunto, el aprendizaje automático, la inferencia y la automatización de verificación de conocimiento cero en redes informáticas descentralizadas muestran claros logros técnicos como intento de asegurar criptográficamente la fiabilidad de los cálculos. Al mismo tiempo, revela las limitaciones estructurales de los altos costes de prueba, las limitaciones medioambientales y la asimetría económica. El enfoque actual implementa automatización práctica combinando pruebas selectivas, ejecución paralela, computación cifrada y diseño de incentivos, lo que se considera un ejemplo de cómo llevar la verificabilidad del razonamiento de inteligencia artificial a un rango realista en un entorno distribuido.
$NESA



Populares
Ranking
Favoritas
