Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Förtroendesäkerhetsstruktur för transparent utbildning och verifiering av decentraliserade AI-modeller
@gensynai, @nesaorg, @DeepNodeAI
Den första premissen som beaktas vid träning och validering av AI-modeller i en distribuerad miljö är att det är omöjligt att anta att alla deltagare alltid kommer att bete sig ärligt. I faktiska forsknings- och driftsfall har specifika fel identifierats, såsom friskrivning där beräkningsnoder returnerar trovärdiga men overifierade resultat för att minska beräkningskostnader, dataförgiftning på grund av skadlig träningsdatainmatning, manipulerad kompletteringssats i förstärkningsinlärningsprocessen, gradientmanipulation som inte är statistiskt avslöjad och situationer där flera noder samarbetar för att förvränga konsensusstrukturen. Dessa risker utgör en utgångspunkt för att förklara varför mekanismer för att tekniskt garantera transparens och förtroende behövs.
För att lösa detta problem föreslår Gensyn en exekveringsorienterad struktur som tar själva beräkningen som verifieringsobjekt. I denna struktur delas maskininlärningsuppgiften upp i reproducerbara operatornivå-deterministiska beräkningsgrafer, och samma operation är utformad för att återges lika bit för bit i olika hårdvarumiljöer. Verde-protokollet kombinerar delegering av skiljedomar med ett dikotomt spel för att hitta den första åtgärdspunkten där beräkningsresultatet är feljusterat och göra om det med minimal omkörning av den omtvistade delen, vilket bibehåller effektiviteten. Ekonomiska justeringar hanteras på Ethereum-baserade rollups, och faktiska storskaliga operationer utförs utanför kedjan, men den viktigaste funktionen är att resultatens noggrannhet är kryptografiskt garanterad om minst en ärlig nod finns.
Inom samma stack ansvarar Gensyns Delphi för att verifiera hur väl den resulterande modellen fungerar, inte hur beräkningarna utfördes. Delphi organiserar modellutvärderingar av prestationer i form av prognosmarknader, låter deltagare satsa på resultatresultat och bestämmer transparent utfall genom on-chain bedömningslogik. Denna process bygger på statistisk verifiering och ekonomiska incitament snarare än kryptografiska bevis, men fungerar som en mekanism som ger transparens i att utvärderingskriterier och resultat registrerats offentligt.
NESA, å andra sidan, har en struktur som prioriterar integritetsskydd framför transparens. NESA använder blockkedjebaserad sekventiell neural nätverkssharding för att dela upp modellen i flera delar och tillämpar isomorfa hemliga distributionstekniker för isomorf kryptering och krypterade inbäddningar så att ingen enskild nod kan se hela modellen eller hela datan. Denna metod fokuserar på effektiv parameterfinjustering med adaptrar istället för att träna hela modellen från grunden, och kännetecknas av att upprätthålla integritetsgränser genom procedurer som verifierar resultaten av inferensutförda off-chain on-chain. Eftersom beräkningsprocessen är krypterad finns det dock också en strukturell begränsning att det är svårt att direkt återskapa eller verifiera operationen utifrån.
DeepNode AI riktar transparens i en annan riktning. Systemet använder en marknadsmekanism baserad på ömsesidig utvärdering och staking mellan noder snarare än kryptografiska bevis på beräkningsprocesser. Varje intelligent system utvärderar utdatainformationen från det andra systemet, och belöningen fördelas enligt den insatsviktade förlustfunktionen. Rykte bildas genom upprepade interaktioner, straff utdöms för felaktiga inlämningar, och detta ekonomiska tryck bidrar till att anpassa deltagarnas beteende. Denna struktur utmärks av att den, även om den inte ger kryptografiskt bevis, bygger förtroende på ett sätt som transparent avslöjar motivationen för deltagandet.
Tillsammans visar dessa metoder att transparens i decentraliserad AI-träning och verifiering inte är ett enda koncept utan realiseras i flera lager. Gensyns Verde verifierar om en uppgift utförs, Delphi verifierar resultatresultat, och DeepNode verifierar deltagarnas bidrag och integritet på olika sätt, alla där Nesa fokuserar på att minimera exponeringen av data och modeller i processen. Samtidigt är spänningen också tydlig: krypterade beräkningar begränsar reproducerbarhet och direkt granskning, och strukturer som kräver full reproducerbarhet ger liten dataintegritet.
Som ett resultat utvärderas den nuvarande decentraliserade AI-stacken som att den inte fullt ut adresserar frågor som proveniensen och äktheten hos träningsdata, gradientsynkronisering i en global miljö och samordning mellan olika ekonomiska system. Det är dock relativt tydligt vilka strukturella element som består av transparent decentraliserad AI-modellträning och verifiering, eftersom olika mekanismer som beräkningsverifiering, prestationsutvärdering, ekonomiska incitament och integritetsskydd ger transparens inom verifierbarhetens ram.
$NESA



Topp
Rankning
Favoriter
