Structura de asigurare a încrederii pentru antrenamentul și verificarea modelelor AI descentralizate transparente @gensynai, @nesaorg, @DeepNodeAI Prima premisă luată în considerare atunci când se antrenează și validează modele AI într-un mediu distribuit este că este imposibil să presupui că toți participanții vor avea întotdeauna un comportament onest. În cazuri reale de cercetare și operare, au fost identificate eșecuri specifice, cum ar fi free-ride, în care nodurile de calcul returnează rezultate plauzibile, dar neverificate, pentru a reduce costurile computaționale, otrăvirea datelor din cauza inserării malițioase a datelor de antrenament, manipularea instrucțiunilor de completare manipulată în procesul de învățare prin întărire, manipularea gradientului care nu este dezvăluită statistic și situațiile în care mai multe noduri colaborează pentru a distorsiona structura consensului. Aceste riscuri oferă un punct de plecare pentru a explica de ce sunt necesare mecanisme care să garanteze tehnic transparența și încrederea. Pentru a aborda această problemă, Gensyn propune o structură orientată spre execuție care ia calculul însuși ca obiect de verificare. În această structură, sarcina de învățare automată este descompusă în grafuri computaționale deterministe reproductibile la nivel de operator, iar aceeași operație este proiectată să fie reprodusă în mod egal bit cu bit în diferite medii hardware. Protocolul Verde combină delegarea arbitrajului cu un joc dicotomic pentru a găsi primul punct de operație unde rezultatul calculului este nealiniat și pentru a-l reface cu o re-executare minimă a părții disputate, menținând eficiența. Ajustările economice sunt gestionate pe rollup-urile bazate pe Ethereum, iar operațiunile la scară largă reale se realizează off-chain, dar caracteristica cheie este că acuratețea rezultatelor este garantată criptografic dacă există cel puțin un nod onest. În cadrul aceleiași stive, Delphi al lui Gensyn este responsabil pentru verificarea cât de bine funcționează modelul rezultat, nu pentru modul în care au fost efectuate calculele. Delphi organizează evaluările performanței modelelor sub forma piețelor de predicție, permite participanților să parieze pe rezultatele performanței și determină transparent rezultatele prin logică de judecată on-chain. Acest proces se bazează pe verificare statistică și stimulente economice, mai degrabă decât pe demonstrații criptografice, dar funcționează ca un mecanism care oferă transparență, deoarece criteriile și rezultatele evaluării sunt înregistrate public. NESA, pe de altă parte, adoptă o structură care prioritizează protecția confidențialității în detrimentul transparenței. NESA folosește fragmentarea secvențială a rețelelor neuronale bazate pe blockchain pentru a împărți modelul în mai multe părți și aplică tehnici de distribuție secretă izomorfă pentru criptare izomorfă și încorporații criptate, astfel încât niciun singur nod să nu poată vedea întregul model sau întreaga dată. Această abordare se concentrează pe ajustarea fină eficientă a parametrilor folosind adaptoare, mai degrabă decât pe antrenarea întregului model de la zero, și se caracterizează prin menținerea limitelor de confidențialitate prin proceduri care verifică rezultatele inferenței efectuate off-chain on-chain. Totuși, deoarece procesul de calcul este criptat, există și o limitare structurală prin care este dificil să se reproducă sau să verifice direct operațiunea din exterior. DeepNode AI abordează transparența într-o altă direcție. Sistemul utilizează un mecanism de piață bazat pe evaluarea reciprocă și staking între noduri, mai degrabă decât pe demonstrații criptografice ale proceselor computaționale. Fiecare sistem inteligent evaluează informațiile de ieșire ale celuilalt sistem, iar recompensa este distribuită conform funcției de pierdere ponderată în miză. Reputația se formează prin interacțiuni repetate, se aplică penalizări pentru trimiterile incorecte, iar această presiune economică contribuie la alinierea comportamentului participanților. Această structură se distinge prin faptul că, deși nu oferă dovezi criptografice, construiește încredere într-un mod care dezvăluie transparent motivația pentru participare. Luate împreună, aceste abordări arată că transparența în antrenamentul și verificarea AI descentralizată nu este un concept unic, ci se realizează în mai multe straturi. Verde-ul Gensyn verifică dacă o sarcină este îndeplinită, Delphi verifică performanța rezultatelor, iar DeepNode verifică contribuțiile și integritatea participanților în moduri diferite, toate acestea fiind concentrate de Nesa pe minimizarea expunerii datelor și modelelor în proces. În același timp, tensiunea este evidentă: calculele criptate limitează reproductibilitatea și auditabilitatea directă, iar structurile care necesită reproducibilitate completă oferă puțină confidențialitate a datelor. Ca urmare, actualul stack AI descentralizat este evaluat ca nerezolvând pe deplin probleme precum proveniența și autenticitatea datelor de antrenament, sincronizarea gradientului într-un mediu global și coordonarea între diferite sisteme economice. Cu toate acestea, este relativ clar ce elemente structurale constau în antrenarea și verificarea modelelor AI transparente, descentralizate, deoarece diferite mecanisme precum verificarea computațională, evaluarea performanței, stimulentele economice și protecția confidențialității oferă transparență în cadrul verificabilității. $NESA