🧵 1/ AI er overalt. Men kan du faktisk stole på hvordan den ble trent? AI-modeller lærer av data. Men noen ganger er disse dataene sensitive (medisinske journaler, økonomisk historie, personlige meldinger osv.) Derfor bruker selskaper en teknikk kalt Federated Learning: dataene dine forlater aldri enheten din. Bare «lærdommene er lært» blir delt. Privatliv bevart. Men her er en hake.
2/ Bare fordi dataene dine forblir lokale, betyr ikke det at alle i prosessen oppfører seg ærlig. Hva om noen manipulerer AI-en under trening? Hva om resultatene blir tuklet med? Hva om noen tar gratis turer uten å bidra med noe? Tillit antas. Men aldri bevist.
3/ Ideen? Ikke bare stol på, verifiser. Ved hjelp av kryptografiske bevis kan hvert steg i AI-treningsprosessen nå kontrolleres. Hvem brukte hvilke data. Om treningen ble utført riktig. Om resultatene var ærlig kombinert. Ingen blind tro kreves.
4/ Å verifisere hvordan AI-resultater kombineres ("aggregering") er allerede mulig i dag, og det lukker noen av de største sikkerhetshullene i samarbeidende AI. Full treningsbekreftelse kommer. Vi er ikke der ennå, men forskningen går raskt.
5/ Blokkjede fungerer som en offentlig, manipulasjonssikker revisjonslogg. Og med zkVerify @zkvprotocol koster verifisering av disse bevisene så lite som 0,0003 dollar. Det er ikke en skrivefeil.
74