Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Verifiserbar AI-inferens- og konsensusmekanisme basert på nullkunnskapsbevis
@wardenprotocol, @inference_labs, @miranetwork
Til tross for sin høye utnyttelse har kunstig intelligens-inferens en strukturell begrensning som gjør det vanskelig å kontrollere dens interne oppførsel. På grunn av den svarte boks-strukturen hvor modellens vekter og treningsdata ikke oppgis, ubestemtheten forårsaket av stokastisk utvalg og flyttallsoperasjoner, samt utførelsesintegritetsproblemet som ikke kan bekrefte om riktig modell faktisk er utført, er det vanskelig å anta at man kun stoler på AI-resultatene. Denne egenskapen har gjentatte ganger blitt påpekt som et problem, spesielt i områder med lav feiltoleranse, som finans, sikkerhet og automatisert beslutningstaking.
En av de tekniske tilnærmingene for å løse dette tillitsproblemet er zero-knowledge proof-basert maskinlæring, eller verifiserbare AI-inferensstrukturer ved bruk av zkML. zkML opplyser ikke beregningsprosessen inne i modellen for omverdenen, men beviser kryptografisk at beregningen ble utført etter riktige vekter og regler. Dette gjør det mulig for brukerne å vurdere legitimiteten til resultatene basert på matematiske bevis selv, uten å måtte stole på modellleverandøren til å stole på AI-ens resultater.
I denne strukturen anvender Warden-protokollen, som har ansvar for utførelseslaget, SPEX, en statistisk proof-of-execution-metode, på inferensarbeidet utført av AI-agenter. I stedet for å utføre hele operasjonen på nytt, oppsummerer SPEX den beregningsmessige tilstanden som genereres under inferensprosessen med et bloom-filter og verifiserer konsistensen i utførelsen gjennom tilfeldig utvalg. Denne prosessen fungerer kun med et par løsere og validatorer, og gir et høyt nivå av sannsynlighetssikkerhet med svært lav beregningsoverhead sammenlignet med full rerun. Dette gjør at Warden-protokollen kan fungere som en verifisering av at gjennomføringen faktisk har funnet sted til moderate kostnader og forsinkelse.
På verifikasjonslaget spiller Omron, drevet av Inference Labs, en nøkkelrolle. Omron er en zkML-spesifikk infrastruktur bestående av subnett i Bittensor-nettverket, som verifiserer med fullstendige nullkunnskapsbevis at ekte AI-modellinferens ble utført etter riktige vekter og beregningsrekkefølge. Omron deler store modeller inn i DSIL-filenheter ved hjelp av DSperse og forbedrer prosesseringshastigheten ved å generere parallelle bevis. Gjennom denne strukturen har mer enn hundrevis av millioner zkML-bevis blitt generert og verifisert, og praktiske operasjonstilfeller har blitt akkumulert for små modeller og mellomstore nevrale nettverk. Men på grunn av høye beregningskostnader og minnekrav finnes det praktiske begrensninger for svært store modeller.
I konsensuslaget utfyller Mira-nettverket påliteligheten til utdataene gjennom en flermodellbasert konsensusmekanisme. Mira Network tar ikke utgangen fra én enkelt modell slik den er, men sammenligner resultatene fra flere AI-modeller med ulike strukturer og treningsbakgrunner. Resultatet deles opp i uavhengig verifiserbare kravenheter, og faktabarheten vurderes gjennom konsensus mellom flere modeller. Prosessen fungerer ved å kombinere et proof-of-work-element som beviser at faktisk slutning er gjennomført, og et proof-of-stake-element der validatorer deltar som sikkerhet for visse eiendeler. Hvis feil resultater gjentatte ganger godkjennes eller ondsinnet atferd bekreftes, ilegges økonomiske sanksjoner for å opprettholde avtalens ærlighet.
Disse tre lagene er distinkte, men utfyllende, og danner en enkelt verifiserbar AI-stakk. Warden-protokollen gir rask og kostnadseffektiv statistisk bevis på utførelse under utførelsesfasen, og når et høyt nivå av tillit kreves, utføres full zkML-basert verifisering gjennom Omron. Deretter forsterkes tolkningen av resultatene og vurderingen av fakta av Mira Networks flermodellkonsensus, og ektheten av utførelsen, påliteligheten av resultatet og økonomisk sikkerhet ved konsensus verifiseres av ulike mekanismer.
Denne strukturen er realistisk designet ved at den anvender ulike verifiseringsmetoder avhengig av risikonivå og kostnadsstruktur, i motsetning til tilnærmingen som prøver å bevise alle AI-slutninger på én måte. Kryptografiske bevis anvendes på høyverdi-inferens som kan bære høye kostnader, mens statistisk verifikasjon og konsensusbasert verifisering er ansvarlige for storskala prosessering og skalerbarhet. Gjennom denne hierarkiske kombinasjonen blir verifiserbar AI-inferens et teknisk system som kan opereres i praksis utover teoretiske konsepter.
$WARD $MIRA



Topp
Rangering
Favoritter
