AI-sårbarhetsforskning er ikke-deterministisk. Den samme modellen som ser på den samme koden vil ikke ta samme resonnementsvei hver gang. Noen stier finner ingenting. Noen stier finner feilen. En enkelt skanning er et myntkast. Men hva om du fortsetter å flippe? Introduserer Zkao.
zkao får AI-sikkerhetsforskning til å fungere på samme måte som fuzzing: ikke som en engangshendelse, men som noe du kjører kontinuerlig til dekningen øker. Vi starter med Circom, hvor vi har dyp ekspertise fra 100+ ZK-systemrevisjoner.
Koble til GitHub-repoet én gang. Zkao vil: - kjøre skanninger etter en tidsplan (og på forespørsel) - skanne på nytt når modellene forbedres - skanne på nytt når vi sender nye mønstre fra reelle revisjoner - dedupliserte funn - vise nye resultater måneder senere etter hvert som dekningen forbedres
Dekningen din forbedres langs tre akser: 1. modellene blir bedre 2. mønstrene våre blir rikere (lært fra ekte Circom-revisjoner) 3. sannsynligheten øker med gjentatte løp Selv om koden din ikke endres, endrer sikkerhetsdekningen din det.
Zkao er ikke trent på vibber. Det er informert av det vi ser i praksis. Underbegrensede signaler, usikre tildelinger, manglende rekkeviddesjekker, subtile logiske feil på tvers av malene. Alle mønstre fra ekte engasjementer, kodet inn i agenter som skanner kodebasen din.
ZKAO er nå i early access. Hvis du har Circom-kretser og ønsker sikkerhetsforskning som blir stadig smartere over tid: Vil du ha tidlig tilgang? Ta kontakt: Sikkerhet bør ikke være en engangshendelse. Det burde bygge seg opp.
377