La ricerca sulle vulnerabilità dell'AI è non deterministica. Lo stesso modello che analizza lo stesso codice non seguirà sempre lo stesso percorso di ragionamento. Alcuni percorsi non trovano nulla. Alcuni percorsi trovano il bug. Una singola scansione è come lanciare una moneta. Ma cosa succede se continui a lanciare? Presentiamo zkao.
zkao fa funzionare la ricerca sulla sicurezza dell'AI come funziona il fuzzing: non come un evento isolato, ma come qualcosa che esegui continuamente fino a quando la copertura si accumula. Iniziamo con Circom, dove abbiamo una profonda esperienza da oltre 100 audit di sistemi ZK.
Collega il tuo repository GitHub una volta. zkao farà: - eseguirà scansioni su un programma (e su richiesta) - rieseguirà la scansione quando i modelli migliorano - rieseguirà la scansione quando rilasciamo nuovi modelli da audit reali - deduplica i risultati - presenterà nuovi risultati mesi dopo man mano che la copertura migliora
La tua copertura migliora lungo tre assi: 1. i modelli diventano migliori 2. i nostri schemi diventano più ricchi (appresi da audit reali di Circom) 3. la probabilità si accumula con esecuzioni ripetute Anche se il tuo codice non cambia, la tua copertura di sicurezza sì.
zkao non è addestrato sulle vibrazioni. È informato da ciò che vediamo nella pratica. Segnali sotto-constrainati, assegnazioni non sicure, controlli di intervallo mancanti, sottili difetti logici tra i template. Tutti schemi da interazioni reali, codificati in agenti che scansionano il tuo codice.
zkao è ora in accesso anticipato. Se hai circuiti Circom e desideri una ricerca sulla sicurezza che diventa sempre più intelligente nel tempo: Vuoi l'accesso anticipato? Contattaci: La sicurezza non dovrebbe essere un evento una tantum. Dovrebbe accumularsi.
363