Mecanism verificabil de inferență și consens AI bazat pe demonstrații fără cunoștințe @wardenprotocol, @inference_labs, @miranetwork În ciuda utilizării sale ridicate, inferența inteligenței artificiale are o limitare structurală prin care este dificil să verifici comportamentul său intern. Din cauza structurii cutiei negre în care ponderile modelului și datele de antrenament nu sunt dezvăluite, indeterminismului cauzat de eșantionarea stocastică și operațiunile în virgulă mobilă, precum și problema integrității execuției care nu poate confirma dacă modelul corect a fost efectiv executat, este dificil să presupui încrederea în rezultatele generate doar de AI. Această caracteristică a fost semnalată în mod repetat ca o problemă, mai ales în domenii cu toleranță scăzută la eroare, cum ar fi finanțele, securitatea și luarea deciziilor automate. Una dintre abordările tehnice pentru a aborda această problemă de încredere este învățarea automată bazată pe demonstrații zero-knowledge sau structurile de inferență AI verificabile folosind zkML. zkML nu dezvăluie procesul de calcul din interiorul modelului către exterior, dar demonstrează criptografic că calculul a fost efectuat conform greutăților și regulilor corecte. Acest lucru le permite utilizatorilor să judece legitimitatea rezultatelor pe baza demonstrațiilor matematice, fără a avea încredere în furnizorul modelului să aibă încredere în rezultatele AI-ului. În această structură, Warden Protocol, responsabil pentru stratul de execuție, aplică SPEX, o metodă statistică de demonstrație a execuției, muncii de inferență efectuate de agenții AI. În loc să refacă întreaga operație, SPEX rezumă starea computațională generată în timpul procesului de inferență cu un filtru bloom și verifică consistența execuției prin eșantionare aleatorie. Acest proces funcționează doar cu o pereche de solvere și validatoare, oferind un nivel ridicat de încredere probabilistică cu un overhead computațional foarte scăzut comparativ cu reluarea completă. Acest lucru permite Protocolului Warden să servească drept verificare că execuția a avut loc cu un cost și întârziere moderate. La nivelul de verificare, Omron, operat de Inference Labs, joacă un rol cheie. Omron este o infrastructură specifică zkML, formată din subrețele ale rețelei Bittensor, care verifică cu demonstrații complete zero-knowledge că inferența reală a modelelor AI a fost executată conform ponderilor și ordinii computaționale corecte. Omron împarte modelele mari în unități DSIL folosind DSperse și îmbunătățește viteza de procesare prin generarea de demonstrații paralele. Prin această structură, au fost generate și verificate peste sute de milioane de demonstrații zkML, iar cazuri practice de operare au fost acumulate pentru modele mici și rețele neuronale de dimensiuni medii. Totuși, din cauza costurilor computaționale ridicate și a cerințelor de memorie, există limitări practice pentru modelele foarte mari. În stratul de consens, Mira Network completează fiabilitatea rezultatelor de ieșire printr-un mecanism de consens bazat pe mai multe modele. Mira Network nu ia rezultatele unui singur model așa cum este, ci compară rezultatele mai multor modele AI cu structuri și fundaluri de antrenament diferite. Rezultatul este împărțit în unități de revendicare verificabile independent, iar fabilitatea este evaluată prin consens între mai multe modele. Procesul funcționează prin combinarea unui element proof-of-work care dovedește că inferența efectivă a fost realizată și a unui element proof-of-stake, în care validatorii participă ca garanții pentru anumite active. Dacă rezultatele greșite sunt aprobate în mod repetat sau comportamentul rău intenționat este confirmat, se impun penalități economice pentru a menține onestitatea acordului. Aceste trei straturi sunt distincte, dar complementare, formând o singură stivă AI verificabilă. Protocolul Warden oferă o dovadă statistică rapidă și rentabilă a execuției în faza de execuție, iar atunci când este necesar un nivel ridicat de încredere, verificarea completă bazată pe zkML este efectuată prin Omron. Ulterior, interpretarea rezultatelor și evaluarea faptelor sunt completate de consensul multi-model al Mira Network, iar autenticitatea execuției, fiabilitatea rezultatelor și siguranța economică a consensului sunt verificate prin diferite mecanisme. Această structură este un design realist, deoarece aplică metode diferite de verificare în funcție de nivelul de risc și structura de costuri, spre deosebire de abordarea care încearcă să demonstreze toate inferențele AI într-un singur mod. Demonstrațiile criptografice sunt aplicate inferenței de mare valoare care pot genera costuri mari, în timp ce verificarea statistică și verificarea bazată pe consens sunt responsabile pentru procesarea la scară largă și scalabilitatea. Prin această combinație ierarhică, inferența AI verificabilă devine un sistem tehnic care poate fi operat în practică dincolo de conceptele teoretice. $WARD $MIRA