Datavalidering i desentralisert AI-databehandling: Et strukturelt skifte mot sømløs kunstig intelligens @OpenledgerHQ, @gensynai, @OpenGradient Desentralisert AI-databehandling tilbyr en helt annen løsning på spørsmålet om hvordan kunstig intelligens skapes og verifiseres. I et sentralisert miljø var vurderingen av hvor dataene kom fra, om læringsprosessen ble gjennomført korrekt, og om slutningsresultatene var pålitelige, avhengig av intern ledelse, dokumentasjon og revisjoner i en bestemt organisasjon. I en desentralisert struktur ligger grunnlaget for denne tilliten ikke i organisasjonen, men i teknologien selv, og hele prosessen med kunstig intelligens, som data, beregning og resonnement, er delt inn i verifiserbare lag. Utgangspunktet for denne strukturen er treningsdataene. Kunstig intelligens-modeller lages basert på store mengder data, men i tradisjonelle miljøer er det vanskelig å verifisere kilde- og endringshistorikken til data utenfra. OpenLedger er ansvarlig for å spore dataintegritet og proveniens for å løse disse problemene. I OpenLedger lagres ikke bare data, men det registreres tydelig hvem som leverte dem til hvilket formål og kontekst. Dataene registreres i et datanett organisert etter domene, og hvert bidrag registreres on-chain med versjonsinformasjon. Dette skaper en struktur som lar deg spore hvilke data som faktisk ble brukt til å trene en bestemt modell og hvordan disse dataene påvirket resultatene. Denne prosessen forhindrer at data forsvinner inn i den svarte boksen og etterlater forholdet mellom data og modellens ytelse som et verifiserbart faktum. Når dataene er klare, er neste steg datakraftressursene som utfører selve læringen. Gensyn tilbyr et desentralisert datanettverk som kobler sammen ledige dataressurser spredt rundt i verden og bruker dem til kunstig intelligens-læring. Nøkkelen her er ikke bare å fordele beregningene, men å bevise at beregningene ble utført korrekt. Gensyn verifiserer legitimiteten til treningsprosessen gjennom Verde-valideringsprotokollen. Læringsoppgaven delegeres til flere deltakere, og hvis det er uenighet mellom resultatene, brukes metoden for å finne feilpunktet uten å beregne hele prosessen på nytt. Dette muliggjøres av en reproduserbar operatorstruktur, som strengt fastsetter rekkefølgen på operasjonene slik at de samme operasjonsresultatene oppnås på ulik maskinvare. Takket være dette kan konsistensen i læringsresultatene kontrolleres selv i et desentralisert miljø, og kostnadene ved verifisering minimeres. Disse strukturene har også klare kjennetegn når det gjelder kostnad og tilgjengelighet. Selv om trening med høyytelses GPU-er i et sentralisert skymiljø er kostbart, har Gensyn som mål å tilby samme beregningsnivå til lavere kostnad ved å bruke ledige ressurser. Samtidig håndteres verifisering av om beregningen faktisk ble utført gjennom kryptografiske prosedyrer og spillbasert verifikasjon, som erstattes ikke av en enkel tillitserklæring, men av en bekreftelse med teknisk grunnlag. Verifiseringen avsluttes ikke selv etter at læringen er fullført. Når modellen faktisk utfører inferens, er det nødvendig å verifisere at resultatene er korrekte. OpenGradient er ansvarlig for å validere dette slutningstrinnet. I OpenGradients struktur utføres AI-inferens innenfor blokkjedetransaksjoner, og slutningsresultatene bekreftes i henhold til valgt verifiseringsmetode. Den kraftigste metoden er å matematisk bevise nøyaktigheten av beregninger gjennom nullkunnskapsbevis, og en metode som benytter et maskinvarebasert pålitelig utførelsesmiljø brukes også. I relativt lavrisikosituasjoner kan en enkel metode som baserer seg på kryptoøkonomisk sikkerhet benyttes. Disse ulike metodene velges basert på viktigheten av resonnement, kostnader og ytelseskrav. Det særegne med OpenGradient er at slutningsprosessen ikke håndteres hemmelig utenfor kjeden, men behandles som en del av blokkjedetilstandsovergangen. Modellfiler lagres i distribuert lagring, og slutningsforespørsler og resultater lenkes gjennom tydelige identifikatorer. Dette lar deg sjekke hvilken modell som genererte hvilken utdata for en spesifikk input i hvilken verifiseringsmetode i etterkant. Slutningsresultatene er ikke bare utdataverdier, men registreres som produkter av verifiserbare operasjoner. Som sådan spiller OpenLedger, Gensyn og OpenGradient hver en rolle i ulike stadier av data, læring og inferens. I datastadiet spores kilder og bidrag, i treningsfasen verifiseres nøyaktigheten i beregningene, og i slutningsstadiet begrunnes resultatene. Disse tre lagene er ikke bundet til ett enkelt integrert system, men utgjør funksjonelt en kontinuerlig verifikasjonskjede. Det er en struktur designet slik at ingen trinn forblir ugjennomsiktige. Denne dataverifiseringsstrukturen i desentralisert AI-databehandling viser et skifte i måten kunstig intelligens gjøres mer pålitelig på. Etter hvert som grunnlaget for tillit skifter fra selskapets omdømme eller intern kontroll til teknisk bevis, blir kunstig intelligens-systemer strukturelt integrert med forklarbarhet og ansvarlighet. Et miljø hvor vi kan sjekke hvor dataene kom fra, hvordan læringen ble gjort, og om resonnementet var korrekt, gjør kunstig intelligens ikke til et uforståelig verktøy, men et verifiserbart beregningssystem. Dette viser at desentralisering går utover enkel desentralisering og er en måte å omforme strukturen for tillit til kunstig intelligens på. $OPEN