AI-deepfake-detekteringskapprustningen är redan förlorad hela teknikbranschens svar på deepfakes har varit att bygga bättre detektorer och jag tror att det är ett av de dyraste intellektuella misstagen som sker just nu inom AI Du kan inte vinna ett lopp där motståndaren alltid går först. Varje gång detekteringen förbättras förbättras genereringen snabbare Varje träningsdatamängd för detektering byggdes på gårdagens förfalskningar. Morgondagens förfalskningar är redan bättre än den datamängden. Den enda lösningen är att sluta upptäcka förfalskningar och bevisa äktheten vid källan. det är vad @brevis_zk Vera faktiskt gör, att låta ZK-bevis tyst ta sig in i arbetsflödet hos hundratals miljoner människor som aldrig kommer att veta vad nollkunskap betyder och inte behöver veta det Vera förlänger den kryptografiska kedjan GENOM redigeringsprocessen istället för att behandla redigering som slutet på äktheten C2PA låter kameror kryptografiskt signera bilder vid inspelningstillfället Vera täpper till det gapet med ZK-korrektur på själva redigeringsprocessen Den bevisar matematiskt: → publicerade versionen kom från det signerade originalet → endast tillåtna redigeringar gjordes → inget dolt introducerades Proveniens följer medierna genom hela pipelinen och om detta integreras i mainstream redigeringsverktyg, som de redan förhandlar om, når ZK-teknologin hundratals miljoner människor som aldrig hört talas om zero knowledge-bevis Jag tror att detta inte bara skulle vara en kryptoberättelse, det är infrastrukturlagret för sanningen i AI-eran