Weryfikowalna inferencja AI oparta na dowodach zerowej wiedzy i mechanizmie konsensusu @wardenprotocol , @inference_labs , @miranetwork Inferencja sztucznej inteligencji, mimo wysokiej użyteczności, ma strukturalne ograniczenia związane z trudnością w weryfikacji jej wewnętrznych operacji. Struktura czarnej skrzynki, w której wagi modelu i dane treningowe nie są ujawniane, nieokreśloność wynikająca z probabilistycznego próbkowania i operacji zmiennoprzecinkowych oraz problem integralności wykonania, który uniemożliwia potwierdzenie, czy właściwy model został uruchomiony, sprawiają, że wyniki wyjściowe AI trudno uznać za wiarygodne same w sobie. Te cechy były wielokrotnie wskazywane jako problem w obszarach o niskiej tolerancji na błędy, takich jak finanse, bezpieczeństwo i automatyczne podejmowanie decyzji. Jednym z technicznych podejść do rozwiązania tego problemu zaufania jest struktura weryfikowalnej inferencji AI z wykorzystaniem uczenia maszynowego opartego na dowodach zerowej wiedzy, czyli zkML. zkML stosuje metodę, która pozwala na kryptograficzne udowodnienie, że operacje wewnętrzne modelu zostały przeprowadzone zgodnie z dokładnymi wagami i regułami, nie ujawniając jednocześnie tych operacji na zewnątrz. Dzięki temu użytkownicy mogą ocenić zasadność wyników na podstawie samego dowodu matematycznego, nie musząc ufać dostawcy modelu. W tej strukturze warstwą wykonawczą zajmuje się Warden Protocol, który stosuje statystyczną metodę dowodzenia wykonania, znaną jako SPEX, do inferencji przeprowadzanej przez agentów AI. SPEX podsumowuje stany obliczeniowe generowane w trakcie procesu inferencji za pomocą filtra Bloom, a następnie weryfikuje integralność wykonania poprzez próbkowanie losowe, zamiast ponownie wykonywać całe obliczenia. Proces ten działa z parą solvera i weryfikatora, oferując wysoki poziom zaufania probabilistycznego przy bardzo niskim narzucie obliczeniowym w porównaniu do całkowitego ponownego wykonania. Dzięki temu Warden Protocol pełni rolę potwierdzającą, że wykonanie rzeczywiście miało miejsce przy średnich kosztach i opóźnieniach. W warstwie weryfikacyjnej kluczową rolę odgrywa Omron, zarządzany przez Inference Labs. Omron jest infrastrukturą specjalizującą się w zkML, składającą się z sub-sieci Bittensor, która w pełni weryfikuje, że rzeczywista inferencja modelu AI została przeprowadzona zgodnie z dokładnymi wagami i kolejnością operacji. Omron dzieli duże modele na jednostki DSperse, kompilując je w pliki DSIL i poprawiając prędkość przetwarzania poprzez równoległe generowanie dowodów. Dzięki tej strukturze setki milionów dowodów zkML zostały rzeczywiście wygenerowane i zweryfikowane, a praktyczne przypadki operacyjne zostały zgromadzone dla małych modeli i średniej wielkości sieci neuronowych. Niemniej jednak, ze względu na wysokie koszty obliczeniowe i wymagania pamięciowe, istnieją realistyczne ograniczenia dla bardzo dużych modeli. W warstwie konsensusu Mira Network uzupełnia wiarygodność wyników poprzez mechanizm konsensusu oparty na wielu modelach. Mira Network nie przyjmuje wyników pojedynczego modelu, lecz porównuje wyniki różnych modeli AI o odmiennych strukturach i tle szkoleniowym. Wyniki są rozkładane na niezależnie weryfikowalne jednostki twierdzeń, a ich prawdziwość jest oceniana poprzez konsensus między wieloma modelami. Proces ten łączy elementy dowodu pracy, który potwierdza, że rzeczywista inferencja miała miejsce, oraz elementy dowodu stakowania, w których weryfikatorzy uczestniczą, stawiając określone aktywa jako zabezpieczenie. W przypadku wielokrotnego zatwierdzania błędnych wyników lub stwierdzenia złośliwego działania, na uczestników nakładane są kary ekonomiczne, co utrzymuje uczciwość konsensusu. Te trzy warstwy są oddzielne, ale wzajemnie się uzupełniają, tworząc jeden weryfikowalny stos AI. Warden Protocol zapewnia szybkie i kosztowo efektywne statystyczne dowody wykonania, a w przypadku wysokich wymagań dotyczących zaufania, pełna weryfikacja oparta na zkML jest przeprowadzana przez Omron. Następnie interpretacja wyników i ocena prawdziwości są wzmacniane przez konsensus wielu modeli Mira Network, a autentyczność wykonania, wiarygodność wyników i ekonomiczne bezpieczeństwo konsensusu są weryfikowane różnymi mechanizmami. Taka struktura pokazuje realistyczny projekt, który w przeciwieństwie do podejścia próbującego udowodnić wszystkie inferencje AI w jednolity sposób, stosuje różne środki weryfikacji w zależności od poziomu ryzyka i struktury kosztów. Dowody kryptograficzne są stosowane w przypadku wysokowartościowych inferencji, które mogą ponieść wysokie koszty, podczas gdy weryfikacja statystyczna i weryfikacja oparta na konsensusie odpowiadają za przetwarzanie na dużą skalę i skalowalność. Dzięki temu hierarchicznemu połączeniu weryfikowalna inferencja AI staje się systemem technologicznym, który wykracza poza teoretyczne koncepcje i staje się rzeczywiście operacyjnym rozwiązaniem. $WARD $MIRA