Die Forschung zu AI-Sicherheitsanfälligkeiten ist nicht deterministisch. Dasselbe Modell, das denselben Code betrachtet, wird nicht jedes Mal denselben Denkweg einschlagen. Einige Wege finden nichts. Einige Wege finden den Fehler. Ein einzelner Scan ist ein Münzwurf. Aber was, wenn du weiter wirfst? Einführung von zkao.
zkao macht die Sicherheitsforschung im Bereich KI so, wie es beim Fuzzing der Fall ist: nicht als einmaliges Ereignis, sondern als etwas, das man kontinuierlich ausführt, bis die Abdeckung sich erhöht. Wir beginnen mit Circom, wo wir über umfassende Expertise aus über 100 ZK-Systemprüfungen verfügen.
Verbinde dein GitHub-Repo einmal. zkao wird: - Scans nach einem Zeitplan (und auf Anfrage) durchführen - erneut scannen, wenn sich die Modelle verbessern - erneut scannen, wenn wir neue Muster aus echten Audits bereitstellen - Ergebnisse duplizieren - neue Ergebnisse Monate später anzeigen, wenn die Abdeckung sich verbessert
Ihre Abdeckung verbessert sich entlang dreier Achsen: 1. Modelle werden besser 2. Unsere Muster werden reicher (gelernt aus echten Circom-Audits) 3. Die Wahrscheinlichkeit kumuliert mit wiederholten Durchläufen Selbst wenn sich Ihr Code nicht ändert, ändert sich Ihre Sicherheitsabdeckung.
zkao ist nicht auf Vibes trainiert. Es wird durch das informiert, was wir in der Praxis sehen. Unterbeschränkte Signale, unsichere Zuweisungen, fehlende Bereichsprüfungen, subtile logische Fehler zwischen Vorlagen. Alle Muster aus realen Engagements, kodiert in Agenten, die Ihren Codebestand scannen.
zkao ist jetzt im frühen Zugang. Wenn Sie Circom-Schaltungen haben und Sicherheitsforschung möchten, die im Laufe der Zeit immer intelligenter wird: Möchten Sie frühen Zugang? Kontaktieren Sie uns: Sicherheit sollte kein einmaliges Ereignis sein. Sie sollte sich kumulieren.
366