Automazione della verifica dell'inferenza di machine learning a conoscenza zero in reti di calcolo distribuito @inference_labs , @OpenGradient , @nesaorg Il problema di verificare se i risultati dell'inferenza dell'intelligenza artificiale siano stati calcolati correttamente in una rete di calcolo distribuito presenta vincoli complessi diversi rispetto a un ambiente con server centrale. In una struttura in cui più partecipanti eseguono lo stesso modello su diverse configurazioni hardware e software, è difficile presumere la fiducia nei risultati di calcolo. In questo contesto, il machine learning a conoscenza zero è emerso come una tecnologia che dimostra crittograficamente che un determinato input è stato elaborato in un modo specifico attraverso un modello fisso per generare un output specifico. Questo approccio è valutato come un mezzo adatto per ambienti distribuiti poiché consente di verificare la legittimità dell'esecuzione senza rivelare il processo di calcolo all'esterno. Tuttavia, l'inferenza dell'intelligenza artificiale implica intrinsecamente non determinismo. A causa della non associatività delle operazioni in virgola mobile, anche la stessa operazione può produrre lievi differenze nei risultati a seconda dell'ordine di calcolo o dell'implementazione hardware, e queste differenze sono più evidenti in ambienti GPU che utilizzano operazioni parallele. Le reti distribuite comprendono una varietà di dispositivi, dai GPU consumer a acceleratori specializzati, quindi le variazioni di calcolo dovute a differenze nel sistema operativo, nei driver, nella struttura della memoria e nel set di istruzioni si accumulano. La verifica crittografica richiede una corrispondenza bit per bit, quindi queste differenze ambientali possono portare immediatamente a un fallimento della verifica. Per affrontare questo problema, i sistemi zkML quantizzano le operazioni in virgola mobile in numeri interi e trasformano le operazioni delle reti neurali in circuiti aritmetici. Framework come JSTprove, EZKL e RISC Zero esprimono convoluzioni, moltiplicazioni di matrici e funzioni di attivazione come un insieme di vincoli, rendendo il processo di inferenza dimostrabile. Questo processo aumenta drasticamente la complessità del circuito in base alla profondità e alla dimensione del modello, e il tempo e l'uso della memoria necessari per generare la prova aumentano in modo non lineare. Secondo i risultati di misurazione reali, la prova zkML per l'intero modello richiede costi da migliaia a decine di migliaia di volte superiori rispetto al ricalcolo della stessa inferenza. Questa struttura dei costi agisce come un vincolo chiave quando si progetta una verifica dell'inferenza automatizzata in una rete distribuita. Se il costo di generare una prova è maggiore del sospettare i risultati dell'inferenza, la verifica perde significato economico. Di conseguenza, i sistemi reali adottano strategie che verificano selettivamente solo le operazioni chiave o le parti sensibili, piuttosto che provare l'intero modello. DSperse di Inference Labs scompone il modello in più fette e prova solo le parti particolarmente importanti per la fiducia, riducendo notevolmente l'uso della memoria e i costi di prova. Questo approccio non fornisce una prova completa per l'intero calcolo, ma contribuisce a garantire l'efficienza della verifica rispetto ai costi. Una pipeline di verifica automatizzata è costruita su queste strategie di verifica selettiva. La pipeline JSTprove di Inference Labs converte il modello in numeri interi, compila il grafo in formato ONNX in circuiti aritmetici e genera prove attraverso un sistema di prove basato su GKR. Le prove generate vengono verificate on-chain o off-chain, e in realtà, un numero significativo di prove viene elaborato periodicamente in una rete distribuita specifica. OpenGradient ha progettato una struttura di esecuzione parallela chiamata PIPE per gestire simultaneamente molte richieste di inferenza, consentendo di scegliere tra zkML, ambienti di esecuzione sicura o esecuzioni senza verifica per ogni richiesta. In questo modo, i costi di verifica non diventano un collo di bottiglia diretto per la generazione di blocchi o per l'intera capacità di elaborazione. Nesa adotta un approccio che combina l'automazione della verifica con la protezione dei calcoli. Utilizza una struttura in cui i dati di input vengono distribuiti a più nodi in uno stato crittografato e l'inferenza viene eseguita in unità di frammenti crittografati, quindi i risultati vengono aggregati. In questo processo, la selezione dei nodi e la suddivisione dei ruoli sono regolate attraverso tecniche crittografiche di casualità verificabile e soglie, e viene implementata una procedura composta da fasi di impegno e pubblicazione per prevenire comportamenti fraudolenti. Questo approccio garantisce non solo l'integrità dei risultati dell'inferenza, ma anche la riservatezza degli input e dei parametri del modello. Integrando la verifica basata su zkML in reti di calcolo distribuito, si chiarisce la separazione dei ruoli tra esecuzione e verifica. La strategia di parallelizzazione di OpenGradient consente di gestire simultaneamente molte inferenze, mentre il livello di coordinamento di Nesa si occupa della distribuzione dei ruoli e degli incentivi tra i nodi. Il livello di prova di Inference Labs ha il compito di confermare crittograficamente che i calcoli siano stati eseguiti correttamente. Con la separazione di ciascun livello, la verifica automatizzata viene implementata come una combinazione di più componenti piuttosto che come una singola tecnologia. La struttura degli incentivi è anch'essa un elemento chiave dell'automazione. Nesa incoraggia i nodi partecipanti a comportarsi onestamente attraverso strutture di staking e impegno pubblico, mentre Inference Labs distribuisce ricompense in base alla capacità di generazione di prove e alla loro accuratezza. Il servizio basato su gemelli digitali di OpenGradient trasforma il diritto di accesso ai risultati di inferenza verificati in valore economico. Questa struttura è progettata per mantenere un certo livello di fiducia anche senza un gestore centrale. Tuttavia, l'automazione della verifica dell'inferenza zkML presenta limiti chiari. L'asimmetria tra il costo di generare risultati errati e il costo di dimostrare risultati corretti lascia aperte possibilità di attacco. Errori nel processo di conversione del circuito, ritardi nella generazione delle prove, collusione tra nodi e variazioni di calcolo dovute a errori hardware non possono essere completamente eliminati con la tecnologia attuale. I sistemi mitigano questi rischi attraverso esecuzioni replicate, reputazione e sanzioni economiche, ma non possono eliminarli fondamentalmente. In sintesi, l'automazione della verifica dell'inferenza di machine learning a conoscenza zero in reti di calcolo distribuito rappresenta un tentativo di garantire crittograficamente l'affidabilità dei calcoli, mostrando risultati tecnici chiari. Allo stesso tempo, rivela limiti strutturali come alti costi di prova, vincoli ambientali e asimmetrie economiche. Gli approcci attuali implementano un'automazione pratica combinando prove selettive, esecuzione parallela, calcoli crittografati e progettazione degli incentivi, e sono valutati come un esempio che ha portato la verificabilità dell'inferenza dell'intelligenza artificiale in ambienti distribuiti a un ambito realistico. $NESA