Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Datavalidering i desentralisert AI-databehandling: Tre tilnærminger for å sikre integritet i et distribuert miljø
@OpenledgerHQ, @gensynai, @OpenGradient
Siden desentralisert AI-databehandling er en struktur der flere deltakere deler data og beregninger, fremstår hvordan man sikrer tillit som et viktigere spørsmål enn den eksisterende metoden som var avhengig av en sentral server. I denne sammenheng introduseres OpenLedger, Gensyn og OpenGradient som prosjekter som har ansvar for verifisering på ulike stadier av data, læring og inferens.
Gensyn har som mål å være et distribuert læringsnettverk som samler ledige databehandlingsressurser spredt rundt i verden for å trene AI-modeller. For å muliggjøre læring selv i miljøer hvor kommunikasjonen er treg og enhetens ytelse er annerledes, foreslås læringsmetoder med lav kommunikasjon som NoLoCo og feilgjenopprettingsteknikker som CheckFree. Samtidig verifiserer den om treningsberegningen ble utført korrekt gjennom Verde-protokollen, og hvis resultatene er forskjellige, bruker den en struktur som vurderer ved å kjøre kun et spesifikt operasjonssteg på nytt uten å kjøre hele treningen på nytt. For å gjøre dette brukes RepOps-biblioteket for å tvinge fram determinisme slik at de samme beregningsresultatene oppnås på ulik maskinvare. Denne verifiseringen bekrefter imidlertid nøyaktigheten av beregningene for en gitt input og avgjør ikke automatisk om dataene som brukes til trening er forurenset på forhånd.
OpenLedger fokuserer på å spore opprinnelsen og endringshistorikken til dataene som brukes til trening. Databidragsytere sender filer i et forhåndsbestemt format til Datanet, og disse bidragene registreres på kjeden slik at de kan se når og hvilke data som ble brukt i hvilken versjon. Den er designet for å begrense filstørrelse og opplastingsfrekvens, og går gjennom godkjennings- og versjoneringsprosesser for å redusere den vilkårlige datatilførselen. Strukturen for å begrense ondsinnede eller dupliserte bidrag gjennom kvalitetsvurderinger og stakingbaserte straffer forklares, og gjør det klart at formålet er å sikre ansvarlighet og sporbarhet av databidrag.
OpenGradient er ansvarlig for å verifisere om prosessen ble utført korrekt når modellen faktisk utførte inferensen etter trening. Legg igjen et kryptografisk eller maskinvarebasert bevis med slutningsresultatet og registrer det i Gradient Ledger slik at resultatet kan revideres i ettertid. For å redusere ytelsesbyrden behandles tunge beregninger parallelt off-chain, mens on-chain kun resultater og bevis verifiseres. Verifikasjonsmetoden er ZKML, som gir høy garanti men har høye beregningskostnader, TEE, som forutsetter maskinvaretillit med nesten ingen ytelsesbyrde, og Vanilla-metoden, som utelater verifisering.
Ved å sette disse tre prosjektene sammen, avsløres rollefordelingen: OpenLedger registrerer hvilke data som kommer inn, Gensyn sjekker om treningen ble utført korrekt med disse dataene på beregningsnivå, og OpenGradient verifiserer om den trente modellen utførte slutningen korrekt. Per januar 2026 er imidlertid ikke disse stadiene koblet sammen av en enkelt formell teknologipipeline, og det er ikke foreslått noen standarder som binder datakildebevis, læringsverifisering og inferensverifisering inn i en kontinuerlig beviskjede.
Til syvende og sist kan dagens desentraliserte AI-dataverifisering forstås som en tilstand der ulike lag av enheter som dataregistrering, læring, beregningsverifisering og inferensverifisering utvikler seg parallelt med klare roller og begrensninger, snarere enn et «system som garanterer alt på én gang».
$OPEN



Topp
Rangering
Favoritter
