Identification des œuvres créées par l'IA @OpenGradient , @idOS_network , @opensea Avec la diffusion rapide des œuvres créées à l'aide de la technologie IA, la confusion et les controverses de plagiat concernant leur auteur se produisent de manière répétée. En particulier, dans un environnement où des images ou des vidéos générées par l'IA circulent sous forme de NFT, il est souvent difficile de distinguer clairement les responsables uniquement avec le concept de droits d'auteur existant. Dans ce contexte, la structure d'identification des œuvres créées par l'IA, combinant OpenGradient, idOS et OpenSea, attire l'attention en répondant techniquement à la question de qui sera tenu responsable, plutôt que de se demander qui est l'auteur. Le point de départ de cette structure est de prouver comment l'IA a réellement généré les résultats. OpenGradient enregistre le processus d'exécution du modèle d'IA sur la blockchain via une architecture de calcul IA appelée HACA. Dans ce processus, les nœuds d'inférence effectuent les calculs réels, tandis que les nœuds de validation vérifient si ces calculs ont utilisé le modèle et les paramètres définis, et les nœuds de stockage et de données maintiennent l'intégrité du modèle et des données d'entrée. Cela signifie qu'un résultat d'IA contient un enregistrement de transaction unique indiquant quel modèle a été utilisé et dans quelles conditions il a été généré. Cela signifie que le résultat de l'IA n'est pas simplement un fichier, mais un produit avec un historique de création vérifiable. Cependant, prouver le processus de création ne suffit pas. Il faut établir qui a opéré cette IA et qui est responsable du résultat. C'est le rôle du système d'identité décentralisé idOS. idOS fournit une vérification de l'identité d'un individu ou d'une organisation une fois, puis offre ce résultat sous forme de certificats réutilisables via une structure de passation et d'ingestion de données. Cela permet aux créateurs de prouver qu'ils sont des entités vérifiées sans divulguer d'informations personnelles, et de ne partager des informations que de manière limitée si nécessaire. Cette structure fonctionne comme un compromis technique pour maintenir à la fois l'anonymat et la responsabilité. Le lien qui relie les enregistrements de création d'IA et l'identité humaine est assuré par le service d'attestation Ethereum, EAS. Les résultats d'inférence d'IA générés par OpenGradient reçoivent un hachage unique, qui est combiné avec le hachage du certificat d'identité délivré par idOS pour être enregistré en tant qu'attestation. Cette attestation peut être stockée sous forme on-chain ou off-chain et peut finalement être incluse dans les métadonnées NFT. En conséquence, l'acheteur d'un NFT peut vérifier de manière cryptographique quel modèle d'IA a généré l'œuvre et quelle entité humaine est responsable du résultat. Ces informations peuvent être utilisées telles quelles lors de l'enregistrement d'un NFT sur OpenSea. OpenSea prend déjà en charge une structure de métadonnées basée sur IPFS, il est donc possible d'inclure l'identifiant d'attestation EAS comme attribut des métadonnées. Cela ne remplace pas les procédures de certification basées sur le volume des transactions ou les signalements manuels, mais fournit une couche de confiance supplémentaire. En particulier, en cas de soupçon de plagiat, il est possible de vérifier immédiatement l'historique de création et le lien d'identité, contrairement aux procédures DMCA existantes qui peuvent prendre plusieurs jours. Cette structure est également en partie en phase avec l'environnement juridique de 2025. Aux États-Unis, le jugement Thaler v. Perlmutter a clairement établi que les droits d'auteur ne peuvent être attribués qu'à des auteurs humains, et la loi sur l'IA de l'Union européenne souligne également la responsabilité des opérateurs humains pour les résultats des systèmes d'IA. Dans ce contexte, la manière de ne pas reconnaître l'IA elle-même comme un sujet de droits d'auteur tout en enregistrant clairement l'humain qui opère et utilise l'IA comme responsable comble le fossé entre les exigences institutionnelles et la réalité technique. Bien sûr, des limites existent. Il est techniquement difficile d'empêcher complètement des actions telles que le minting par procuration, où un utilisateur avec une identité vérifiée fournit une signature au nom d'un autre. De plus, il subsiste une tension entre la protection des données personnelles et la résolution des conflits. En outre, cette structure ne vérifie pas si les données d'apprentissage du modèle d'IA étaient légales, laissant les problèmes de droits d'auteur au niveau du modèle comme un défi séparé. Néanmoins, en reliant le processus de création des œuvres d'IA et les entités responsables à un enregistrement vérifiable, cette structure d'identification transforme la controverse sur le plagiat de l'IA d'un problème de litige postérieur à un problème de vérification préalable. En fin de compte, le modèle combinant la preuve de calcul d'OpenGradient, l'identité décentralisée d'idOS, l'attestation d'EAS et la structure de distribution NFT d'OpenSea s'établit comme une manière réaliste de traiter techniquement les problèmes de confiance entourant les œuvres créées par l'IA. Cela déplace la discussion autour des œuvres créées par l'IA de l'ambiguïté de l'auteur vers la clarté de la responsabilité, fournissant une base pour une gestion des droits d'auteur vérifiable dans l'environnement de création numérique.