Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Prueba de identidad en creaciones de IA
@OpenGradient , @idOS_network, @opensea
La rápida difusión de creaciones que utilizan tecnología de IA ha provocado repetidamente confusión y controversias sobre plagio en torno a quién las creó. En particular, en un entorno donde las imágenes o vídeos generados por IA se distribuyen en forma de NFTs, a menudo es difícil distinguir claramente a la entidad responsable solo con el concepto de derechos de autor existente. En este contexto, la estructura de autenticación de identidad de creación de IA, que combina OpenGradient, idOS y OpenSea, está llamando la atención como una forma de responder técnicamente a la pregunta de quién será responsable en lugar de preguntar quién será responsable de la creación.
El punto de partida de esta estructura es demostrar qué proceso ha seguido realmente la IA para generar la salida. OpenGradient utiliza una arquitectura de computación con IA llamada HACA para registrar el proceso de ejecución de modelos de IA en la blockchain. En este proceso, el nodo de inferencia realiza el cálculo real, el nodo completo verifica que el cálculo utiliza el modelo y los parámetros predeterminados, y el nodo de almacenamiento y el nodo de datos mantienen la integridad del modelo y los datos de entrada. Esto deja un registro único de transacciones que indica qué modelo se utilizó y bajo qué condiciones se creó en una salida de IA. Esto significa que las salidas de la IA no son solo archivos, sino salidas con historia generativa verificable.
Sin embargo, la prueba del proceso de creación no es suficiente. Esto se debe a que es necesario conectar quién operaba esta IA y quién es responsable de los resultados. Este papel lo desempeña idOS, un sistema de identidad distribuido. idOS verifica la identidad de una persona u organización una vez mediante la creación de rutas y la estructura de gestión de datos, y luego proporciona el resultado en forma de credenciales reutilizables. Esto permite a los creadores demostrar que su identidad ha sido verificada incluso si no revelan su nombre real, y solo pueden divulgar información de forma limitada cuando sea necesario. Esta estructura funciona como un intercambio técnico para mantener el anonimato y la responsabilidad al mismo tiempo.
El vínculo que une los registros generados por IA con las identidades humanas es gestionado por EAS, un servicio de estación de Ethereum. Los resultados de inferencia de IA generados por OpenGradient reciben un hash único, que se combina con un hash de credenciales de identidad emitidas por idOS y se registra como una única estación de atención. Esta atestation puede almacenarse en cadena o fuera de la cadena y eventualmente puede incluirse en los metadatos del NFT. Como resultado, los compradores de NFT pueden verificar criptográficamente de qué modelo de IA se creó la obra y qué entidad humana es responsable del resultado.
Esta información puede utilizarse tal cual al registrar un NFT en OpenSea. Dado que OpenSea ya soporta estructuras de metadatos basadas en IPFS, es posible incluir identificadores EAS de atestiguación como atributos de los metadatos. Aunque no sustituye los procedimientos tradicionales de autenticación basada en volúmenes ni los procedimientos manuales de reportes, sí proporciona una capa adicional de confianza. En particular, cuando se levantan sospechas de plagio, la diferencia es que, a diferencia del proceso DMCA actual, que puede durar varios días, el historial de creación y la conexión con la identidad pueden verificarse inmediatamente.
Esta estructura también está en línea con el entorno legal vigente en 2025, en cierta medida. En Estados Unidos, Thaler contra La sentencia Perlmutter confirma claramente que los derechos de autor pertenecen únicamente a autores humanos, y la ley de IA de la UE también enfatiza la responsabilidad de los operadores humanos por las consecuencias de los sistemas de IA. En esta tendencia, el método de registrar claramente al ser humano que operó y utilizó la IA como entidad responsable, sin reconocer la IA como objeto de derechos de autor, sirve para tender puentes entre las necesidades institucionales y la realidad técnica.
Por supuesto, hay limitaciones. Prácticas como la acuñación por poderes, donde las identidades verificadas proporcionan firmas en su nombre, son técnicamente difíciles de bloquear completamente y siguen siendo una tensión entre la privacidad y la resolución de disputas. Además, dado que esta estructura no puede verificar si los datos de entrenamiento del modelo de IA son legítimos, el tema de los derechos de autor a nivel de modelo sigue siendo un asunto separado. No obstante, esta estructura de prueba de identidad se caracteriza por transformar la controversia sobre plagio de IA en una cuestión de verificación previa en lugar de una disputa post-mortem, ya que conecta el proceso de creación de creaciones de IA y las entidades responsables en un único registro verificable.
Como resultado, el modelo, que combina la prueba de cómputo de OpenGradient, la identidad distribuida de idOS, la atestation de EAS y la estructura de distribución NFT de OpenSea, se posiciona como una forma realista de abordar técnicamente los problemas de confianza que rodean a las creaciones de IA. Esto traslada la discusión en torno a las obras creadas por IA de la ambigüedad de los temas creativos a la claridad de responsabilidad, proporcionando una base para una gestión verificable de derechos de autor en el panorama creativo digital.



Populares
Ranking
Favoritas
