Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Identificazione dell'autore delle opere create da AI
@OpenGradient , @idOS_network , @opensea
Con la rapida diffusione delle opere create utilizzando la tecnologia AI, si stanno ripetutamente verificando confusione e controversie sul plagio riguardo a chi le ha create. In particolare, nell'ambiente in cui immagini o video generati da AI vengono distribuiti in forma di NFT, è spesso difficile distinguere chiaramente i soggetti responsabili utilizzando solo i concetti di copyright esistenti. In questo contesto, la struttura di identificazione delle opere create da AI, che combina OpenGradient, idOS e OpenSea, sta attirando l'attenzione per il suo approccio tecnico alla domanda su a chi attribuire la responsabilità, piuttosto che chiedere chi sia l'autore.
Il punto di partenza di questa struttura è dimostrare quale processo ha seguito l'AI per generare i risultati. OpenGradient registra il processo di esecuzione del modello AI sulla blockchain attraverso un'architettura di calcolo AI chiamata HACA. In questo processo, i nodi di inferenza eseguono i calcoli reali, i nodi di verifica controllano se i calcoli sono stati effettuati utilizzando il modello e i parametri stabiliti, mentre i nodi di archiviazione e i nodi di dati mantengono l'integrità del modello e dei dati di input. Di conseguenza, un risultato AI avrà una registrazione di transazione unica che indica quale modello è stato utilizzato e in quali condizioni è stato generato. Questo significa che il risultato dell'AI non è solo un file, ma un prodotto con una storia di creazione verificabile.
Tuttavia, la sola prova del processo di creazione non è sufficiente. È necessario collegare chi gestisce questa AI e chi è responsabile del risultato. Questo ruolo è svolto dal sistema di identità decentralizzato idOS. idOS fornisce una verifica dell'identità di individui o organizzazioni una volta, attraverso una struttura di passaporto e ingestione dei dati, e poi offre il risultato sotto forma di credenziali riutilizzabili. In questo modo, i creatori possono dimostrare di essere soggetti verificati senza dover rivelare informazioni personali, e possono limitare la divulgazione delle informazioni solo quando necessario. Questa struttura funziona come un compromesso tecnico per mantenere sia l'anonimato che la responsabilità.
Il collegamento che unisce la registrazione della creazione AI e l'identità umana è gestito dal servizio di attestazione Ethereum, EAS. I risultati di inferenza AI generati da OpenGradient ricevono un hash unico, che viene combinato con l'hash delle credenziali di identità emesse da idOS e registrato come un'unica attestazione. Questa attestazione può essere memorizzata in forma on-chain o off-chain e, infine, può essere inclusa nei metadati NFT. Di conseguenza, gli acquirenti di NFT possono verificare in modo crittografico quale modello AI ha generato l'opera e quale soggetto umano è responsabile del risultato.
Queste informazioni possono essere utilizzate direttamente quando si registrano NFT su OpenSea. Poiché OpenSea supporta già una struttura di metadati basata su IPFS, è possibile includere l'identificatore di attestazione EAS come attributo dei metadati. Questo non sostituisce le procedure di certificazione basate sul volume delle transazioni o le segnalazioni manuali, ma fornisce un ulteriore strato di fiducia. In particolare, in caso di sospetti di plagio, a differenza delle procedure DMCA esistenti che possono richiedere giorni, è possibile verificare immediatamente la storia di creazione e il collegamento all'identità.
Questa struttura è anche in parte in linea con l'ambiente legale previsto per il 2025. Negli Stati Uniti, la sentenza Thaler v. Perlmutter ha chiarito che il copyright appartiene solo agli autori umani, e la legge sull'AI dell'Unione Europea sottolinea anche la responsabilità degli operatori umani per i risultati dei sistemi AI. In questo contesto, il modo di registrare chiaramente gli esseri umani come soggetti responsabili, senza riconoscere l'AI come soggetto di copyright, svolge un ruolo nel colmare il divario tra le esigenze istituzionali e la realtà tecnica.
Naturalmente, ci sono anche limiti. È tecnicamente difficile bloccare completamente azioni come il proxy minting, in cui un utente con identità verificata fornisce una firma per conto di qualcun altro, e rimane una tensione tra la protezione dei dati personali e la risoluzione delle controversie. Inoltre, questa struttura non verifica se i dati di addestramento del modello AI siano stati acquisiti legalmente, quindi i problemi di copyright a livello di modello rimangono una questione separata. Tuttavia, il fatto di collegare il processo di creazione delle opere AI e i soggetti responsabili in un'unica registrazione verificabile caratterizza questa struttura di identificazione come un modo per trasformare le controversie sul plagio AI da un problema di conflitto posteriore a uno di verifica preventiva.
In definitiva, il modello che combina la prova di calcolo di OpenGradient, l'identità decentralizzata di idOS, l'attestazione di EAS e la struttura di distribuzione NFT di OpenSea si sta affermando come un modo realistico per affrontare tecnicamente il problema della fiducia riguardo alle opere create da AI. Questo sposta la discussione sulle opere create dall'AI dall'ambiguità dell'autore alla chiarezza della responsabilità, fornendo una base per la gestione verificabile del copyright nell'ambiente di creazione digitale.



Principali
Ranking
Preferiti
