Frontier AI wydaje się przerażająca, ponieważ większość z niej działa jak czarna skrzynka z ładnym logo na górze. To, co robi @inference_labs z DSperse + JSTprove, zasadniczo mówi: „ok, udowodnij to.” Wróciłem do dokumentu DSperse, gdzie opisują to jako strategiczną weryfikację kryptograficzną subkomputacji o wysokiej wartości, zamiast pełno-modelowego cosplayu SNARK. Kawałki modelu stają się niezależnie udowadnialnymi jednostkami, więc możesz zamknąć bramy bezpieczeństwa, detektory anomalii lub prywatne głowy bez wciągania całej sieci w ZK piekło. Z drugiej strony, JSTprove plus repozytorium open-source w ich organizacji GitHub daje ci end-to-end pipeline na backendzie Polyhedra’s Expander: wrzuć model ONNX, CLI wypisuje dowody i audytowalne artefakty, nie wymaga głębokiej wiedzy z zakresu kryptografii. ❯ DSperse decyduje, co warto udowodnić ❯ JSTprove zajmuje się tym, jak to jest udowodnione i ujawnione Większość stosów „frontier AI” nadal prosi cię o zaufanie benchmarkom, a nie zachowaniu. Ta kombinacja to zmienia: wybierasz tryby awarii, na które nie chcesz stawiać, i podłączasz dowody dokładnie tam. Jeśli budujesz poważne systemy w robotyce, finansach lub w świecie agentów, następny uczciwy krok jest prosty: mapuj swój model zagrożeń, a następnie zapytaj, które części rzeczywiście skierowałbyś przez DSperse + JSTprove. Jeśli odpowiedź brzmi „żadne”, to tak naprawdę jeszcze nie goniłeś za zaufaniem. #zkML