cursa înarmărilor pentru detectarea deepfake AI este deja pierdută Întregul răspuns al industriei tehnologice la deepfake-uri a fost să construiască detectoare mai bune și cred că aceasta este una dintre cele mai costisitoare greșeli intelectuale care se întâmplă acum în AI Nu poți câștiga o cursă în care cealaltă parte joacă mereu prima. De fiecare dată când detectarea se îmbunătățește, generarea se îmbunătățește mai rapid Fiecare set de date de antrenament pentru detectare a fost construit pe falsurile de ieri. Falsurile de mâine sunt deja mai bune decât acel set de date. Singura soluție este să nu mai detectezi falsuri și să dovedești autenticitatea de la sursă. asta face de fapt @brevis_zk Vera, pentru a permite demonstrațiilor ZK să intre în tăcere în fluxul de lucru al sute de milioane de oameni care nu vor ști niciodată ce înseamnă zero knowledge și nu au nevoie să știe Vera extinde lanțul criptografic PRIN procesul de editare, în loc să trateze editarea ca pe sfârșitul autenticității C2PA permite camerelor să semneze criptografic imagini în momentul capturării Vera acoperă această diferență cu demonstrațiile ZK chiar în procesul de editare Ea demonstrează matematic: → versiune publicată provenea din originalul semnat → au fost aplicate doar modificările permise → nimic ascuns nu a fost introdus Proveniența circulă împreună cu mass-media pe întregul pipeline iar dacă acest lucru se integrează în instrumentele de editare mainstream, pe care deja le negociez, atunci tehnologia ZK ajunge la sute de milioane de oameni care nu au auzit niciodată de demonstrații zero knowledge Cred că aceasta nu ar fi doar o poveste cripto, ci este stratul infrastructurii pentru adevărul însuși în era AI