Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Validazione dei dati nel calcolo AI decentralizzato: una transizione strutturale verso un'intelligenza artificiale completamente integra
@OpenledgerHQ , @gensynai , @OpenGradient
Il calcolo AI decentralizzato offre una soluzione completamente diversa alla domanda su come viene creata e validata l'intelligenza artificiale. In un ambiente centralizzato, la valutazione di dove provengano i dati, se il processo di apprendimento sia stato eseguito correttamente e se i risultati delle inferenze siano affidabili dipende dalla gestione interna, dalla documentazione e dagli audit di un'organizzazione specifica. In una struttura decentralizzata, la base di questa fiducia non è l'organizzazione, ma la tecnologia stessa, separando e trattando ciascuna fase del processo dell'intelligenza artificiale - dati, calcolo e inferenza - come livelli verificabili.
Il punto di partenza di questa struttura è il dato di apprendimento. I modelli di intelligenza artificiale sono creati su una grande quantità di dati, ma in ambienti tradizionali è difficile verificare l'origine e la cronologia delle modifiche dei dati dall'esterno. OpenLedger svolge un ruolo nel garantire l'integrità e la tracciabilità dei dati. In OpenLedger, i dati non vengono semplicemente memorizzati, ma viene chiaramente registrato chi ha fornito i dati e con quale scopo e contesto. I dati vengono registrati in una rete di dati organizzata per dominio e ogni contributo viene registrato on-chain con informazioni sulla versione. Questo crea una struttura che consente di tracciare quali dati sono stati effettivamente utilizzati per l'apprendimento di un modello e come questi dati hanno influenzato i risultati. Questo processo impedisce che i dati scompaiano in una scatola nera e lascia una relazione verificabile tra i dati e le prestazioni del modello.
Una volta che i dati sono pronti, il passo successivo è rappresentato dalle risorse di calcolo che eseguono l'apprendimento reale. Gensyn fornisce una rete di calcolo decentralizzata che collega risorse di calcolo inattive sparse in tutto il mondo per l'apprendimento dell'intelligenza artificiale. Qui, il punto chiave non è solo distribuire i calcoli, ma dimostrare che tali calcoli siano stati eseguiti correttamente. Gensyn verifica la legittimità del processo di addestramento attraverso il protocollo di verifica Verde. I compiti di apprendimento vengono delegati a più partecipanti e, in caso di disaccordo sui risultati, viene utilizzato un metodo per identificare i punti di errore senza dover ricalcolare l'intero processo. Ciò è reso possibile da una struttura di operatori riproducibili che fissa rigorosamente l'ordine delle operazioni affinché risultati identici vengano ottenuti anche su hardware diversi. Grazie a ciò, è possibile verificare la coerenza dei risultati di apprendimento anche in un ambiente decentralizzato, minimizzando i costi di verifica.
Questa struttura presenta anche caratteristiche chiare in termini di costi e accessibilità. L'apprendimento che utilizza GPU ad alte prestazioni in ambienti cloud centralizzati richiede costi elevati, ma Gensyn mira a fornire lo stesso livello di calcolo a costi inferiori sfruttando risorse inattive. Allo stesso tempo, la verifica che il calcolo sia stato effettivamente eseguito è gestita attraverso procedure crittografiche e verifiche basate su giochi, sostituendo semplici dichiarazioni di fiducia con conferme basate su prove tecniche.
Anche dopo il completamento dell'apprendimento, la verifica non finisce. È necessario un processo per confermare che i risultati delle inferenze siano corretti quando il modello esegue effettivamente l'inferenza. OpenGradient è responsabile della verifica in questa fase di inferenza. Nella struttura di OpenGradient, l'inferenza dell'intelligenza artificiale viene eseguita all'interno di transazioni blockchain e i risultati delle inferenze vengono verificati in base al metodo di verifica selezionato. Il metodo più potente è quello che dimostra matematicamente l'accuratezza dei calcoli attraverso prove a conoscenza zero, e viene utilizzato anche un approccio che sfrutta ambienti di esecuzione sicuri basati su hardware. In situazioni relativamente a basso rischio, può essere applicato un approccio semplice che si basa sulla sicurezza crittografica. Questi vari metodi vengono scelti in base all'importanza, ai costi e ai requisiti di prestazione dell'inferenza.
Una caratteristica di OpenGradient è che il processo di inferenza non viene trattato segretamente al di fuori della catena, ma come parte della transizione di stato della blockchain. I file del modello sono memorizzati in uno storage distribuito e le richieste di inferenza e i risultati sono collegati tramite identificatori chiari. Ciò consente di verificare successivamente quale modello ha generato quale output con quale metodo di verifica per un determinato input. I risultati delle inferenze non sono semplici valori di output, ma vengono registrati come prodotti di operazioni verificabili.
In questo modo, OpenLedger, Gensyn e OpenGradient si dividono i ruoli in diverse fasi: nella fase dei dati, vengono tracciate le origini e i contributi; nella fase di apprendimento, viene verificata l'accuratezza dei calcoli; e nella fase di inferenza, viene dimostrata la legittimità dei risultati. Questi tre livelli non sono legati in un unico sistema integrato, ma funzionalmente formano una catena di verifica continua. È una struttura progettata affinché nessuna fase rimanga opaca.
Questa struttura di validazione dei dati nel calcolo AI decentralizzato mostra un cambiamento nel modo in cui l'intelligenza artificiale può diventare più affidabile. Con il passaggio della base della fiducia dalla reputazione aziendale o dal controllo interno a prove tecniche, i sistemi di intelligenza artificiale incorporano strutturalmente spiegabilità e responsabilità. Un ambiente in cui è possibile verificare da dove provengano i dati, come sia avvenuto l'apprendimento e se l'inferenza sia stata accurata, consente di trattare l'intelligenza artificiale non come uno strumento incomprensibile, ma come un sistema di calcolo verificabile. Questo dimostra che la decentralizzazione va oltre la semplice distribuzione, ristrutturando la stessa struttura della fiducia nell'intelligenza artificiale.
$OPEN



Principali
Ranking
Preferiti
