Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Verifierbar AI-inferens- och konsensusmekanism baserad på nollkunskapsbevis
@wardenprotocol, @inference_labs, @miranetwork
Trots sin höga användning har artificiell intelligens-inferens en strukturell begränsning att det är svårt att kontrollera dess interna beteende. På grund av den svarta lådan där modellens vikter och träningsdata inte avslöjas, den indeterminism som orsakas av stokastisk sampling och flyttalsoperationer, samt exekveringsintegritetsproblemet som inte kan bekräfta om rätt modell faktiskt har exekverats, är det svårt att förutsätta tillit till enbart AI:s utdata. Denna egenskap har upprepade gånger påpekats som ett problem, särskilt inom områden med låg feltolerans, såsom finans, säkerhet och automatiserat beslutsfattande.
Ett av de tekniska tillvägagångssätten för att hantera detta förtroendeproblem är zero-knowledge proof-baserad maskininlärning, eller verifierbara AI-inferensstrukturer med hjälp av zkML. zkML avslöjar inte beräkningsprocessen inuti modellen för omvärlden, men bevisar kryptografiskt att beräkningen utfördes enligt korrekta vikter och regler. Detta gör det möjligt för användare att själva bedöma legitimiteten i resultaten baserat på matematiska bevis, utan att behöva lita på modellleverantören att lita på AI:ns resultat.
I denna struktur tillämpar Warden-protokollet, som ansvarar för exekveringslagret, SPEX, en statistisk proof-of-execution-metod, på det inferensarbete som utförs av AI-agenter. Istället för att upprepa hela operationen sammanfattar SPEX det beräkningstillstånd som genereras under inferensprocessen med ett bloomfilter och verifierar konsistensen i exekveringen genom slumpmässig urval. Denna process fungerar endast med ett par lösare och validatorer, vilket ger en hög nivå av probabilistisk säkerhet med mycket låg beräkningsmässig överhead jämfört med full omkörning. Detta gör att Warden-protokollet kan fungera som en verifiering av att genomförandet faktiskt har ägt rum till en måttlig kostnad och fördröjning.
På verifieringslagret spelar Omron, som drivs av Inference Labs, en nyckelroll. Omron är en zkML-specifik infrastruktur bestående av subnät i Bittensor-nätverket, som med fullständiga nollkunskapsbevis verifierar att verklig AI-modellinferens utfördes enligt rätt vikter och beräkningsordning. Omron delar upp stora modeller i DSIL-filenheter med hjälp av DSperse och förbättrar bearbetningshastigheten genom att generera parallella bevis. Genom denna struktur har mer än hundratals miljoner zkML-bevis genererats och verifierats, och praktiska operativa fall har samlats in för små modeller och medelstora neurala nätverk. På grund av de höga beräkningskostnaderna och minneskraven finns det dock praktiska begränsningar för mycket stora modeller.
I konsensuslagret kompletterar Mira Network tillförlitligheten i utdata genom en multimodellbaserad konsensusmekanism. Mira Network tar inte ut resultatet från en enskild modell som den är, utan jämför resultaten från flera AI-modeller med olika strukturer och träningsbakgrunder. Resultatet delas upp i oberoende verifierbara anspråksenheter, och faktabarheten utvärderas genom konsensus mellan flera modeller. Processen fungerar genom att kombinera ett proof-of-work-element som bevisar att faktisk inferens har genomförts och ett proof-of-stake-element där validerare deltar som säkerhet för vissa tillgångar. Om felaktiga resultat upprepade gånger godkänns eller illvilligt beteende bekräftas, införs ekonomiska påföljder för att upprätthålla avtalets ärlighet.
Dessa tre lager är distinkta men kompletterar varandra, och bildar en enda verifierbar AI-stack. Warden-protokollet ger snabba och kostnadseffektiva statistiska bevis på utförandet under exekveringsfasen, och när hög nivå av förtroende krävs utförs fullständig zkML-baserad verifiering via Omron. Därefter förstärks tolkningen av resultaten och utvärderingen av fakta av Mira Networks multimodellkonsensus, och äktheten i utförandet, tillförlitligheten i resultatet och ekonomisk säkerhet i konsensus verifieras av olika mekanismer.
Denna struktur är realistisk eftersom den tillämpar olika verifieringsmetoder beroende på risknivå och kostnadsstruktur, till skillnad från metoden som försöker bevisa alla AI-inferenser på ett enda sätt. Kryptografiska bevis tillämpas på högvärdig inferens som kan bära höga kostnader, medan statistisk verifiering och konsensusbaserad verifiering ansvarar för storskalig bearbetning och skalbarhet. Genom denna hierarkiska kombination håller verifierbar AI-inferens på att bli ett tekniskt system som kan användas i praktiken bortom teoretiska begrepp.
$WARD $MIRA



Topp
Rankning
Favoriter
