"Pentru ca autoritățile de reglementare să aibă încredere în AI, trebuie să o verifice - iar dovezile cu cunoștințe zero fac posibilă această verificare fără a expune nimic." - @BrianNovell, șef BD la @lagrangedev La Verifying Intelligence în timpul @token2049, Brian Novell a explicat modul în care reglementarea AI se reduce în cele din urmă la încredere - atât instituțională, cât și publică. Pentru ca un guvern sau o autoritate de reglementare să adopte AI în fluxurile de lucru critice, trebuie mai întâi să aibă încredere că sistemul se comportă corect, iar cetățenii trebuie să aibă încredere că este utilizat în mod responsabil. Acest strat dublu de asigurare este locul în care dovezile zero-knowledge pot juca un rol definitoriu. Permițând sistemelor AI să dovedească conformitatea sau corectitudinea fără a dezvălui date sensibile, ZK creează fundația criptografică pentru o responsabilitate transparentă, dar privată. Este puntea lipsă între nevoia de supraveghere a reglementărilor și protecția informațiilor proprietare sau personale. Urmăriți panelul complet de la Verifying Intelligence (în parteneriat cu @googlecloud și @boundless_xyz) pentru a vedea cum echipe precum Lagrange lucrează pentru a face din IA verificabilă o realitate de reglementare: