tekoälyn deepfake-havaitsemisen asevarustelukilpailu on jo menetetty Koko teknologia-alan vastaus deepfakeihin on ollut parempien detektorien rakentaminen, ja mielestäni se on yksi kalleimmista älyllisistä virheistä, joita tekoälyssä tällä hetkellä tapahtuu Et voi voittaa kilpailua, jossa toinen osapuoli aina liikkuu ensin. Joka kerta kun tunnistus paranee, tuotanto paranee nopeammin Jokainen tunnistuskoulutusaineisto on rakennettu eilisen väärennösten varaan. Huomisen väärennökset ovat jo parempia kuin tuo aineisto. Ainoa ratkaisu on lopettaa väärennösten havaitseminen ja todistaa aitous lähteellä. juuri sitä @brevis_zk Vera oikeasti tekee: antaa ZK-todisteiden hiljaista pääsyä satojen miljoonien ihmisten työnkulkuun, jotka eivät koskaan tiedä, mitä nollatieto tarkoittaa eivätkä tarvitsekaan Vera laajentaa kryptografista ketjua LÄPI muokkausprosessin sen sijaan, että muokkausta käsiteltäisiin aitouden päätepisteenä C2PA antaa kameroiden kryptografisesti allekirjoittaa kuvat tallennuksen hetkellä Vera kuroi tämän aukon umpeen ZK:n todistuksilla itse editointiprosessista se matemaattisesti todistaa: → julkaistu versio tuli allekirjoitetusta alkuperäisestä → vain sallittuja muokkauksia tehtiin → mitään piilotettua ei otettu käyttöön Provenance kulkee median mukana koko putken läpi ja jos tämä integroituu valtavirran editointityökaluihin, joista he jo neuvottelevat, ZK-teknologia tavoittaa satoja miljoonia ihmisiä, jotka eivät ole koskaan kuulleet nollatiedon todistuksista Uskon, että tämä ei olisi pelkkä kryptotarina, vaan totuuden infrastruktuurikerros tekoälyn aikakaudella