Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Trust Assurance-struktur for transparent opplæring og verifisering av desentraliserte AI-modeller
@gensynai, @nesaorg, @DeepNodeAI
Det første premisset som vurderes når man trener og validerer AI-modeller i et distribuert miljø, er at det er umulig å anta at alle deltakere alltid vil opptre ærlig. I faktiske forsknings- og driftstilfeller har spesifikke feil blitt identifisert, som frikjøring der beregningsnoder returnerer plausible, men uverifiserte resultater for å redusere beregningskostnader, dataforgiftning på grunn av ondsinnet innsetting av treningsdata, manipulert innlevering av fullføringssetninger i forsterkningslæringsprosessen, gradientmanipulasjon som ikke er statistisk avslørt, og situasjoner der flere noder samarbeider for å forvrenge konsensusstrukturen. Disse risikoene gir et utgangspunkt for å forklare hvorfor det trengs nødvendige mekanismer for teknisk å garantere åpenhet og tillit.
For å løse dette problemet foreslår Gensyn en utførelsesorientert struktur som tar selve beregningen som verifiseringsobjekt. I denne strukturen deles maskinlæringsoppgaven opp i reproduserbare operatornivå-deterministiske beregningsgrafer, og samme operasjon er designet for å gjenskapes likt bit for bit i ulike maskinvaremiljøer. Verde-protokollen kombinerer voldgiftsdelegering med et dikotomt spill for å finne det første operasjonspunktet der beregningsresultatet er feiljustert, og gjenta det med minimal rekjøring av den omstridte delen, samtidig som effektiviteten opprettholdes. Økonomiske justeringer håndteres på Ethereum-baserte sammenrullinger, og faktiske storskalaoperasjoner utføres utenfor kjeden, men nøkkelfunksjonen er at nøyaktigheten i resultatene er kryptografisk garantert dersom minst én ærlig node eksisterer.
Innenfor samme stabel er Gensyns Delphi ansvarlig for å verifisere hvor godt den resulterende modellen fungerer, ikke hvordan beregningene ble utført. Delphi organiserer modellvurderinger av ytelse i form av prediksjonsmarkeder, lar deltakerne satse på ytelsesutfall, og bestemmer utfall transparent gjennom on-chain vurderingslogikk. Denne prosessen er basert på statistisk verifisering og økonomiske insentiver snarere enn kryptografiske bevis, men fungerer som en mekanisme som gir åpenhet i at evalueringskriterier og resultater blir offentlig registrert.
NESA, derimot, har en struktur som prioriterer personvern fremfor åpenhet. NESA bruker blokkjedebasert sekvensiell nevralt nettverksfragmentering for å dele modellen inn i flere deler og anvender isomorfe hemmelige distribusjonsteknikker for isomorf kryptering og krypterte innbeddinger slik at ingen enkelt node kan se hele modellen eller hele dataene. Denne tilnærmingen fokuserer på effektiv parameterfinjustering ved bruk av adaptere i stedet for å trene hele modellen fra bunnen av, og kjennetegnes ved å opprettholde personverngrenser gjennom prosedyrer som verifiserer resultatene av inferensutført off-chain on-chain. Men siden beregningsprosessen er kryptert, er det også en strukturell begrensning som gjør at det er vanskelig å direkte gjenskape eller verifisere operasjonen utenfra.
DeepNode AI adresserer åpenhet i en annen retning. Systemet benytter en markedsmekanisme basert på gjensidig evaluering og staking mellom noder i stedet for kryptografiske bevis på beregningsprosesser. Hvert intelligent system evaluerer utdataene til det andre systemet, og belønningen fordeles i henhold til den stakvektede tapsfunksjonen. Omdømme bygges opp gjennom gjentatte interaksjoner, det ilegges straffer for feilaktige innsendinger, og dette økonomiske presset bidrar til å justere deltakernes atferd. Denne strukturen kjennetegnes ved at selv om den ikke gir kryptografisk bevis, bygger den tillit på en måte som åpenbart avslører motivasjonen for deltakelse.
Samlet sett viser disse tilnærmingene at åpenhet i desentralisert AI-trening og -verifisering ikke er ett enkelt konsept, men realiseres i flere lag. Gensyns Verde verifiserer om en oppgave blir utført, Delphi verifiserer resultatenes ytelse, og DeepNode verifiserer deltakernes bidrag og integritet på ulike måter, alle disse fokuserer Nesa på å minimere eksponeringen av data og modeller i prosessen. Samtidig er spenningen også tydelig: krypterte beregninger begrenser reproduserbarhet og direkte reviderbarhet, og strukturer som krever full reproduserbarhet gir lite databeskyttelse.
Som et resultat vurderes den nåværende desentraliserte AI-stakken som ikke fullt ut adresserer spørsmål som opprinnelse og ekthet av treningsdata, gradientsynkronisering i et globalt miljø, og koordinering mellom ulike økonomiske systemer. Likevel er det relativt klart hvilke strukturelle elementer som består av transparent desentralisert AI-modelltrening og verifisering, ettersom ulike mekanismer som beregningsverifisering, ytelsesevaluering, økonomiske insentiver og personvernbeskyttelse gir åpenhet innenfor verifiserbarhetens rammer.
$NESA



Topp
Rangering
Favoritter
