Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Automatisering van de verificatie van zero-knowledge machine learning inferentie in gedistribueerde computernetwerken
@inference_labs , @OpenGradient , @nesaorg
Het probleem van het verifiëren of de resultaten van kunstmatige intelligentie-inferentie correct zijn berekend in een gedistribueerd computernetwerk heeft andere complexe beperkingen dan in een centrale serveromgeving. In een structuur waar meerdere deelnemers hetzelfde model uitvoeren in verschillende hardware- en softwareomgevingen, is het moeilijk om vooraf de betrouwbaarheid van de berekende resultaten aan te nemen. In deze context is zero-knowledge machine learning ontstaan als een technologie die cryptografisch bewijst dat een bepaalde invoer op een vaste manier door een model is verwerkt om een specifieke uitvoer te genereren. Deze methode wordt beschouwd als een geschikte manier voor gedistribueerde omgevingen omdat het de mogelijkheid biedt om de rechtmatigheid van de uitvoering te verifiëren zonder het berekeningsproces openbaar te maken.
Echter, kunstmatige intelligentie-inferentie bevat van nature een niet-deterministische eigenschap. Door de niet-combinatorische aard van drijvende komma-berekeningen kunnen zelfs dezelfde berekeningen kleine verschillen in resultaten vertonen, afhankelijk van de volgorde van berekeningen of de hardware-implementatie, en in een GPU-omgeving die parallelle berekeningen gebruikt, zijn deze verschillen nog duidelijker. Gedistribueerde netwerken omvatten een breed scala aan apparaten, van consumentengpu's tot speciale versnellers, waardoor de accumulatie van berekeningsafwijkingen door verschillen in besturingssystemen, stuurprogramma's, geheugensystemen en instructiesets ontstaat. Cryptografische verificatie vereist bit-voor-bit overeenstemming, waardoor deze omgevingsverschillen direct kunnen leiden tot verificatiefouten.
Om dit probleem op te lossen, kwantiseert het zkML-systeem drijvende komma-berekeningen naar vaste komma's en transformeert het neurale netwerkberekeningen naar de vorm van rekenkundige circuits. Frameworks zoals JSTprove, EZKL en RISC Zero drukken convoluties, matrixvermenigvuldigingen en activatiefuncties uit als een set van beperkingen, waardoor het mogelijk wordt om het inferentieproces te bewijzen. Dit proces leidt tot een snelle toename van de complexiteit van de circuits, afhankelijk van de diepte en grootte van het model, en de tijd en het geheugengebruik die nodig zijn voor het genereren van bewijzen nemen ook niet-lineair toe. Volgens werkelijke meetresultaten vereist de zkML-verificatie voor het volledige model duizenden tot tienduizenden keren hogere kosten dan het opnieuw berekenen van dezelfde inferentie.
Deze kostenstructuur vormt een cruciale beperking bij het ontwerpen van geautomatiseerde verificatie in gedistribueerde netwerken. Als de kosten voor het genereren van bewijzen hoger zijn dan het in twijfel trekken van de inferentieresultaten, verliest de verificatie zijn economische betekenis. Daarom kiezen echte systemen ervoor om in plaats van het hele model te bewijzen, alleen de kernoperaties of gevoelige delen selectief te verifiëren. DSperse van Inference Labs splitst het model in meerdere slices en bewijst alleen de delen die bijzonder belangrijk zijn voor de betrouwbaarheid, waardoor het geheugengebruik en de bewijs kosten aanzienlijk worden verlaagd. Deze methode biedt geen volledige bewijs voor de gehele berekening, maar draagt bij aan de verificatie-efficiëntie in verhouding tot de kosten.
Een geautomatiseerde verificatie-pijplijn is opgebouwd op basis van deze selectieve verificatiestrategieën. De JSTprove-pijplijn van Inference Labs converteert het model naar vaste komma's, compileert de ONNX-vormige grafiek naar rekenkundige circuits en genereert bewijzen via een GKR-gebaseerd bewijs systeem. De gegenereerde bewijzen worden on-chain of off-chain geverifieerd, en in werkelijkheid worden er periodiek meerdere bewijzen verwerkt in specifieke gedistribueerde netwerken. OpenGradient heeft een parallelle uitvoeringsstructuur genaamd PIPE ontworpen, waarmee meerdere inferentieverzoeken gelijktijdig kunnen worden verwerkt en waarbij voor elk verzoek kan worden gekozen tussen zkML, een vertrouwde uitvoeringsomgeving of een uitvoering zonder verificatie. Dit zorgt ervoor dat de verificatiekosten geen directe bottleneck vormen voor het genereren van blokken of de totale doorvoer.
Nesa hanteert een benadering die verificatieautomatisering combineert met computerverscherming. Het verdeelt invoergegevens in versleutelde toestand over meerdere knooppunten en voert inferentie uit in versleutelde stukjes, waarna de resultaten worden samengevoegd. In dit proces worden de selectie van knooppunten en de rolverdeling geregeld via verifieerbare willekeurige getallen en drempelcryptografie, en wordt fraude onderdrukt door een procedure die bestaat uit een commit- en openbaarmakingsfase. Deze methode garandeert niet alleen de integriteit van de inferentieresultaten, maar ook de vertrouwelijkheid van de invoer en modelparameters.
Door zkML-gebaseerde verificatie te integreren in gedistribueerde computernetwerken, wordt de scheiding van de rollen van uitvoering en verificatie duidelijk. De paralleliseringsstrategie van OpenGradient maakt het mogelijk om meerdere inferenties gelijktijdig te verwerken, terwijl het verificatieproces apart kan worden beheerd, en de coördinatielaag van Nesa is verantwoordelijk voor de rolverdeling en incentives tussen knooppunten. De bewijslaag van Inference Labs heeft de rol om cryptografisch te bevestigen dat de daadwerkelijke berekeningen correct zijn uitgevoerd. Op deze manier, terwijl de verschillende lagen gescheiden zijn, wordt geautomatiseerde verificatie gerealiseerd als een combinatie van meerdere componenten in plaats van als een enkele technologie.
De incentive-structuur is ook een essentieel element van de automatisering. Nesa moedigt deelnemende knooppunten aan om eerlijk te handelen via staking en commit-openbaarmakingsstructuren, en Inference Labs verdeelt beloningen op basis van de capaciteit en nauwkeurigheid van bewijscreatie. De digitale tweeling-gebaseerde service van OpenGradient zet het recht op toegang tot geverifieerde inferentieresultaten om in economische waarde. Deze structuur is ontworpen om een bepaald niveau van vertrouwen te behouden zonder een centrale beheerder.
Desondanks zijn er duidelijke beperkingen aan geautomatiseerde zkML-inferentie verificatie. De asymmetrie tussen de kosten van het genereren van onjuiste resultaten en de kosten van het bewijzen van correcte resultaten laat ruimte voor aanvallen. Fouten in het circuitconversieproces, vertragingen in bewijscreatie, samenzweringen tussen knooppunten en berekeningsafwijkingen door hardwarefouten kunnen momenteel niet volledig worden geëlimineerd met de bestaande technologie. Systemen verlichten deze risico's via replicatie-uitvoering, reputatie en economische sancties, maar kunnen ze fundamenteel niet elimineren.
Samenvattend toont de automatisering van de verificatie van zero-knowledge machine learning inferentie in gedistribueerde computernetwerken duidelijke technische prestaties in de poging om de betrouwbaarheid van berekeningen cryptografisch te waarborgen. Tegelijkertijd onthult het ook structurele beperkingen zoals hoge bewijs kosten, omgevingsbeperkingen en economische asymmetrie. De huidige benaderingen implementeren praktische automatisering door selectieve bewijzen, parallelle uitvoering, versleutelde berekeningen en incentive-ontwerpen te combineren, en worden beoordeeld als een voorbeeld dat de verifieerbaarheid van kunstmatige intelligentie-inferentie naar een realistisch bereik heeft gebracht in gedistribueerde omgevingen.
$NESA



Boven
Positie
Favorieten
