Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Struttura di garanzia della fiducia per l'addestramento e la validazione di modelli AI decentralizzati e trasparenti
@gensynai , @nesaorg , @DeepNodeAI
Quando si addestrano e si validano modelli AI in un ambiente decentralizzato, la prima premessa da considerare è che non si può sempre assumere che tutti i partecipanti agiscano onestamente. Nella pratica, casi di studio e operativi hanno dimostrato che i nodi di calcolo possono restituire risultati plausibili ma non verificati a causa di comportamenti opportunistici, avvelenamento dei dati causato da inserimenti di dati di addestramento malevoli, invio di frasi completate manipolate durante il processo di apprendimento rinforzato, manipolazione dei gradienti che non si manifesta statisticamente e situazioni in cui più nodi colludono per distorcere la struttura di consenso. Questi fattori di rischio rappresentano il punto di partenza per spiegare perché è necessario un meccanismo che garantisca tecnicamente trasparenza e fiducia.
Per affrontare questo problema, Gensyn propone una struttura orientata all'esecuzione che considera la verifica stessa dell'esecuzione del calcolo. In questa struttura, i compiti di machine learning vengono scomposti in grafi di calcolo deterministici a livello di operatori riproducibili, progettati affinché le stesse operazioni siano riproducibili bit per bit anche in ambienti hardware diversi. Il protocollo Verde combina delega di arbitraggio e giochi dicotomici per identificare il primo punto di calcolo in cui i risultati divergono, mantenendo l'efficienza rieseguendo solo le parti in cui si sono verificati conflitti. La regolazione economica avviene su un rollup basato su Ethereum e le operazioni di calcolo su larga scala vengono eseguite off-chain, ma il fatto che esista almeno un nodo onesto garantisce criptograficamente l'accuratezza dei risultati, che è una delle caratteristiche chiave.
All'interno dello stesso stack, Delphi di Gensyn ha il compito di verificare non come è stato eseguito il calcolo, ma quanto bene funzioni il modello risultante. Delphi struttura la valutazione delle prestazioni del modello in forma di mercato predittivo, consentendo ai partecipanti di scommettere sui risultati delle prestazioni e confermando i risultati in modo trasparente attraverso logiche di giudizio on-chain. Questo processo si basa più su verifiche statistiche e incentivi economici piuttosto che su prove criptografiche, ma funge da meccanismo che offre trasparenza poiché i criteri di valutazione e i risultati sono registrati pubblicamente.
D'altra parte, Nesa adotta una struttura che prioritizza la protezione della privacy rispetto alla trasparenza. Nesa divide il modello in più pezzi attraverso lo sharding di reti neurali sequenziali basate su blockchain e applica tecniche di distribuzione segreta omomorfica su crittografia e embedding crittografati, in modo che nessun singolo nodo possa vedere l'intero modello o i dati completi. Questo approccio si concentra sul fine-tuning efficiente dei parametri utilizzando adattatori piuttosto che addestrare l'intero modello fin dall'inizio e mantiene i confini della privacy attraverso procedure che verificano i risultati delle inferenze eseguite off-chain on-chain. Tuttavia, poiché il processo di calcolo è crittografato, ci sono limiti strutturali che rendono difficile riprodurre o verificare direttamente i calcoli dall'esterno.
DeepNode AI affronta la trasparenza da un'altra prospettiva. Questo sistema utilizza un meccanismo di mercato basato su valutazioni reciproche tra nodi e staking piuttosto che prove criptografiche del processo di calcolo. Ogni sistema intelligente valuta le informazioni di output di altri sistemi e le ricompense vengono distribuite in base a una funzione di perdita ponderata dallo stake. Attraverso interazioni ripetute, si forma una reputazione e vengono imposte penalità per invii errati, e questa pressione economica allinea il comportamento dei partecipanti. Questa struttura non fornisce prove criptografiche, ma si distingue per il modo in cui rivela in modo trasparente le motivazioni alla partecipazione, costruendo fiducia.
Combinando questi approcci, si può osservare che la trasparenza nell'addestramento e nella validazione di AI decentralizzati non è un concetto unico, ma si realizza su più livelli. Verde di Gensyn verifica se il lavoro è stato eseguito, Delphi verifica le prestazioni dei risultati, DeepNode verifica i contributi e l'integrità dei partecipanti, mentre Nesa si concentra sulla minimizzazione dell'esposizione di dati e modelli in tutto il processo. Allo stesso tempo, il calcolo crittografato limita la riproducibilità e la possibilità di audit diretto, e la struttura che richiede una riproducibilità completa non offre quasi alcuna privacy dei dati, evidenziando una tensione chiara.
Di conseguenza, l'attuale stack AI decentralizzato è valutato come non in grado di risolvere completamente problemi come l'origine e la veridicità dei dati di addestramento, la sincronizzazione dei gradienti in ambienti globali e la regolazione tra diversi sistemi economici. Tuttavia, diversi meccanismi come la verifica del calcolo, la valutazione delle prestazioni, gli incentivi economici e la protezione della privacy forniscono trasparenza all'interno di ambiti verificabili, rendendo relativamente chiaro quali elementi strutturali compongano l'addestramento e la validazione di modelli AI decentralizzati e trasparenti.
$NESA



Principali
Ranking
Preferiti
