Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Validación de datos en la computación descentralizada de IA: un cambio estructural hacia una inteligencia artificial fluida
@OpenledgerHQ , @gensynai , @OpenGradient
La computación descentralizada de IA ofrece una solución completamente diferente a la cuestión de cómo se crea y verifica la inteligencia artificial. En un entorno centralizado, el juicio sobre el origen de los datos, si el proceso de aprendizaje se llevó a cabo correctamente y si los resultados de la inferencia eran fiables dependía de la gestión interna, la documentación y las auditorías de una organización concreta. En una estructura descentralizada, la base de esta confianza no reside en la organización sino en la propia tecnología, y todo el proceso de inteligencia artificial, como los datos, el cálculo y el razonamiento, se divide en capas verificables.
El punto de partida de esta estructura son los datos de entrenamiento. Los modelos de inteligencia artificial se crean a partir de grandes cantidades de datos, pero en entornos tradicionales es difícil verificar la fuente y la historia de modificaciones de los datos desde fuera. OpenLedger es responsable de hacer el seguimiento de la integridad y procedencia de los datos para abordar estos problemas. En OpenLedger, los datos no se almacenan simplemente, sino que se registra claramente quién los proporcionó con qué propósito y contexto. Los datos se registran en una red de datos organizada por dominio, y cada contribución se registra en cadena con la información de versión. Esto crea una estructura que permite rastrear qué datos se usaron realmente para entrenar un modelo concreto y cómo esos datos afectaron a los resultados. Este proceso evita que los datos desaparezcan en la caja negra y deja la relación entre los datos y el rendimiento del modelo como un hecho verificable.
Una vez que los datos están listos, el siguiente paso son los recursos informáticos que realizan el aprendizaje real. Gensyn proporciona una red de computación descentralizada que conecta recursos informáticos inactivos dispersos por todo el mundo y los utiliza para el aprendizaje de inteligencia artificial. La clave aquí no es solo distribuir los cálculos, sino demostrar que los cálculos se realizaron correctamente. Gensyn verifica la legitimidad del proceso de entrenamiento mediante el protocolo de validación Verde. La tarea de aprendizaje se delega a varios participantes y, si hay un desacuerdo entre los resultados, se utiliza el método para encontrar el punto de error sin recalcular todo el proceso. Esto es posible gracias a una estructura de operadores reproducible, que fija estrictamente el orden de las operaciones para que los mismos resultados de operación se obtengan en hardware diferente. Gracias a esto, la consistencia de los resultados de aprendizaje puede comprobarse incluso en un entorno descentralizado, y el coste de la verificación se minimiza.
Estas estructuras también presentan características claras en términos de coste y accesibilidad. Aunque el entrenamiento con GPUs de alto rendimiento en un entorno de nube centralizado es costoso, Gensyn pretende ofrecer el mismo nivel de cálculo a un coste menor utilizando recursos inactivos. Al mismo tiempo, la verificación de si el cálculo se realizó realmente se realiza mediante procedimientos criptográficos y verificación basada en juegos, que no se sustituye por una simple declaración de confianza, sino por una confirmación con base técnica.
La verificación no termina ni siquiera después de completar el aprendizaje. Cuando el modelo realiza realmente la inferencia, es necesario verificar que los resultados son correctos. OpenGradient es responsable de validar este paso de inferencia. En la estructura de OpenGradient, la inferencia de IA se ejecuta dentro de las transacciones de blockchain, y los resultados de la inferencia se confirman según el método de verificación elegido. El método más potente es demostrar matemáticamente la precisión de los cálculos mediante pruebas de conocimiento cero, y también se utiliza un método que utiliza un entorno de ejecución confiable basado en hardware. En situaciones de riesgo relativamente bajo, se puede aplicar un método sencillo que se basa en la seguridad criptoeconómica. Estos diferentes métodos se seleccionan en función de la importancia del razonamiento, el coste y los requisitos de rendimiento.
La peculiaridad de OpenGradient es que el proceso de inferencia no se gestiona en secreto fuera de la cadena, sino que se trata como parte de la transición al estado de la blockchain. Los archivos modelo se almacenan en almacenamiento distribuido, y las solicitudes de inferencia y los resultados se vinculan mediante identificadores claros. Esto te permite comprobar qué modelo generó qué salida para una entrada específica y en qué método de verificación después de los hechos. Los resultados de la inferencia no son simplemente valores de salida, sino que se registran como productos de operaciones verificables.
Por ello, OpenLedger, Gensyn y OpenGradient desempeñan cada uno un papel en diferentes etapas de datos, aprendizaje e inferencia. En la fase de datos, se registran las fuentes y contribuciones; en la fase de formación, se verifica la precisión de los cálculos; y en la fase de inferencia, los resultados se justifican. Estas tres capas no están ligadas a un único sistema integrado, sino que forman funcionalmente una cadena de verificación continua. Es una estructura diseñada para que ningún paso permanezca opaco.
Esta estructura de verificación de datos en la computación descentralizada de IA muestra un cambio en la forma en que la inteligencia artificial se hace más fiable. A medida que la base de la confianza pasa de la reputación corporativa o el control interno a la prueba técnica, los sistemas de inteligencia artificial se integran estructuralmente con explicabilidad y responsabilidad. Un entorno donde podamos comprobar de dónde provienen los datos, cómo se ha aprendido y si el razonamiento era preciso hace que la inteligencia artificial no sea una herramienta incomprensible, sino un sistema computacional verificable. Esto demuestra que la descentralización va más allá de la simple descentralización y es una forma de remodelar la estructura de la confianza en inteligencia artificial en sí misma.
$OPEN



Populares
Ranking
Favoritas
