Certificação de identidade de criações de AI @OpenGradient , @idOS_network , @opensea Com a rápida disseminação de criações utilizando tecnologia de AI, surgem repetidamente confusões e controvérsias sobre plágio em relação a quem as criou. Especialmente em um ambiente onde imagens ou vídeos gerados por AI são distribuídos na forma de NFT, frequentemente se torna difícil distinguir claramente os responsáveis apenas com o conceito tradicional de direitos autorais. Nesse contexto, a estrutura de certificação de identidade de criações de AI, que combina OpenGradient, idOS e OpenSea, tem atraído atenção por responder tecnicamente à pergunta de a quem a responsabilidade deve ser atribuída, em vez de questionar quem é o criador. O ponto de partida dessa estrutura é provar como a AI realmente passou por um processo para gerar os resultados. A OpenGradient registra o processo de execução do modelo de AI na blockchain através de uma arquitetura de computação chamada HACA. Nesse processo, os nós de inferência realizam os cálculos reais, enquanto os nós de verificação confirmam se os cálculos utilizaram o modelo e os parâmetros definidos, e os nós de armazenamento e dados mantêm a integridade do modelo e dos dados de entrada. Como resultado, um único resultado de AI possui um registro de transação único que indica qual modelo foi utilizado e sob quais condições foi gerado. Isso significa que o resultado da AI não é apenas um arquivo simples, mas um produto com um histórico de criação verificável. No entanto, a prova do processo de criação por si só não é suficiente. É necessário conectar quem operou essa AI e quem é responsável pelo resultado. O sistema de identidade descentralizada que desempenha esse papel é o idOS. O idOS fornece uma verificação de identidade de indivíduos ou organizações uma vez, através de uma estrutura de passaporte e ingestão de dados, e oferece o resultado na forma de credenciais reutilizáveis. Isso permite que o criador prove que é uma entidade verificada, mesmo sem divulgar informações pessoais, podendo limitar a divulgação de informações apenas quando necessário. Essa estrutura funciona como um compromisso técnico para manter anonimato e responsabilidade ao mesmo tempo. O elo que conecta o registro de criação de AI e a identidade humana é o serviço de atestação Ethereum, o EAS. Os resultados de inferência de AI gerados pela OpenGradient recebem um hash único, que é combinado com o hash das credenciais de identidade emitidas pelo idOS, sendo registrado como uma única atestação. Essa atestação pode ser armazenada em forma on-chain ou off-chain e, em última análise, pode ser incluída nos metadados do NFT. Como resultado, os compradores de NFT podem verificar criptograficamente qual modelo de AI foi utilizado para gerar a obra e qual entidade humana é responsável pelo resultado. Essas informações podem ser utilizadas diretamente ao registrar NFTs no OpenSea. O OpenSea já suporta uma estrutura de metadados baseada em IPFS, portanto, é possível incluir o identificador da atestação EAS como um atributo dos metadados. Isso não substitui a autenticação baseada em volume de transações ou os procedimentos de denúncia manuais existentes, mas oferece uma camada adicional de confiança. Especialmente em casos de alegações de plágio, ao contrário dos procedimentos DMCA existentes que podem levar dias, é possível verificar imediatamente o histórico de criação e a conexão de identidade. Essa estrutura também se alinha em certa medida com o ambiente legal previsto para 2025. Nos Estados Unidos, a decisão Thaler v. Perlmutter confirmou claramente que os direitos autorais pertencem apenas a autores humanos, e a lei de AI da União Europeia também enfatiza a responsabilidade dos operadores humanos pelos resultados dos sistemas de AI. Nesse fluxo, registrar claramente os humanos que operam e utilizam a AI como responsáveis, sem reconhecer a AI como sujeito de direitos autorais, ajuda a preencher a lacuna entre as exigências institucionais e a realidade técnica. Claro que existem limitações. Ações como a mintagem proxy, onde um usuário com identidade verificada fornece uma assinatura em nome de outro, são tecnicamente difíceis de bloquear completamente, e a tensão entre proteção de dados e resolução de disputas ainda persiste. Além disso, essa estrutura não verifica se os dados de treinamento do modelo de AI eram legais, portanto, questões de direitos autorais em nível de modelo permanecem como um desafio separado. No entanto, ao conectar o processo de criação de criações de AI e a entidade responsável em um único registro verificável, essa estrutura de certificação de identidade transforma a controvérsia sobre plágio de AI em uma questão de verificação prévia, em vez de uma disputa posterior. Como resultado, o modelo que combina a prova de computação da OpenGradient, a identidade descentralizada do idOS, a atestação do EAS e a estrutura de distribuição de NFT do OpenSea se estabelece como uma abordagem prática para lidar tecnicamente com a questão de confiança em torno das criações de AI. Isso move a discussão sobre as obras criadas por AI da ambiguidade do criador para a clareza da responsabilidade, fornecendo uma base para a gestão verificável de direitos autorais no ambiente de criação digital.