de AI deepfake detectiewedloop is al verloren de hele techindustrie reageert op deepfakes door betere detectors te bouwen en ik denk dat dat een van de duurste intellectuele fouten is die momenteel in AI gebeurt jij kunt geen race winnen waar de andere kant altijd als eerste beweegt. elke keer dat de detectie verbetert, verbetert de generatie sneller een elke trainingsdataset voor detectie is gebouwd op de fakes van gisteren. de fakes van morgen zijn al beter dan die dataset. de enige oplossing is om te stoppen met het detecteren van fakes en authenticiteit aan de bron te bewijzen. dat is wat @brevis_zk Vera eigenlijk doet, om ZK-bewijzen stilletjes in de workflow van honderden miljoenen mensen te laten binnenkomen die nooit zullen weten wat zero knowledge betekent en dat ook niet hoeven te weten Vera breidt de cryptografische keten UIT tijdens het bewerkingsproces in plaats van bewerking als het einde van authenticiteit te beschouwen C2PA laat camera's cryptografisch afbeeldingen ondertekenen op het moment van vastlegging Vera sluit die kloof met ZK-bewijzen over het bewerkingsproces zelf het bewijst wiskundig: → gepubliceerde versie kwam van het ondertekende origineel → alleen toegestane bewerkingen zijn toegepast → er is niets verborgen geïntroduceerd herkomst reist met de media door de hele pijplijn en als dit integreert in mainstream bewerkingstools, waar ze al over onderhandelen, dan bereikt ZK-technologie honderden miljoenen mensen die nog nooit van zero knowledge proofs hebben gehoord ik geloof dat dit niet alleen een crypto-verhaal zou zijn, het is de infrastructuurlaag voor de waarheid zelf in het AI-tijdperk