Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Weryfikacja danych w zdecentralizowanym obliczaniu AI: strukturalna transformacja w kierunku całkowicie niezawodnej sztucznej inteligencji
@OpenledgerHQ , @gensynai , @OpenGradient
Zdecentralizowane obliczanie AI przedstawia zupełnie inne rozwiązanie na pytanie, jak sztuczna inteligencja jest tworzona i weryfikowana. W scentralizowanym środowisku ocena, skąd pochodzą dane, czy proces uczenia został dokładnie przeprowadzony oraz czy wyniki wnioskowania są wiarygodne, opierała się na wewnętrznych zarządzania i dokumentacji konkretnej organizacji. W zdecentralizowanej strukturze podstawą zaufania nie jest organizacja, lecz sama technologia, a cały proces sztucznej inteligencji, obejmujący dane, obliczenia i wnioskowanie, jest traktowany jako oddzielne, weryfikowalne warstwy.
Punktem wyjścia tej struktury są dane uczące. Modele sztucznej inteligencji są tworzone na podstawie dużych zbiorów danych, ale w tradycyjnym środowisku trudno jest zweryfikować źródło danych i historię ich modyfikacji. OpenLedger pełni rolę w śledzeniu integralności danych i ich źródła. W OpenLedger dane nie są po prostu przechowywane, ale dokładnie rejestrowane, kto i w jakim celu oraz kontekście dostarczył dane. Dane są rejestrowane w sieci danych zorganizowanej według domen, a każdy wkład jest zapisywany na łańcuchu z informacjami o wersji. Dzięki temu tworzona jest struktura, która pozwala śledzić, jakie dane faktycznie zostały użyte do uczenia konkretnego modelu oraz jaki wpływ miały te dane na wyniki. Proces ten zapobiega znikaniu danych w czarnej skrzynce i pozostawia weryfikowalne fakty dotyczące relacji między danymi a wydajnością modelu.
Gdy dane są gotowe, następnym krokiem są zasoby obliczeniowe, które przeprowadzają rzeczywiste uczenie. Gensyn oferuje zdecentralizowaną sieć obliczeniową, która łączy rozproszone na całym świecie nieużywane zasoby obliczeniowe do uczenia sztucznej inteligencji. Kluczowe jest nie tylko rozproszenie obliczeń, ale także udowodnienie, że te obliczenia zostały prawidłowo przeprowadzone. Gensyn potwierdza zasadność procesu uczenia za pomocą protokołu weryfikacji Verde. Zadania uczenia są delegowane do wielu uczestników, a w przypadku rozbieżności w wynikach stosuje się metodę znajdowania punktów błędów bez konieczności ponownego obliczania całego procesu. Umożliwia to struktura operatorów reprodukowalnych, która ściśle ustala kolejność obliczeń, aby uzyskać te same wyniki na różnych sprzętach. Dzięki temu można potwierdzić spójność wyników uczenia w zdecentralizowanym środowisku, a koszty weryfikacji są minimalizowane.
Taka struktura ma również wyraźne cechy pod względem kosztów i dostępności. Uczenie z wykorzystaniem wysokowydajnych GPU w scentralizowanym środowisku chmurowym wiąże się z wysokimi kosztami, ale Gensyn dąży do oferowania obliczeń na tym samym poziomie przy niższych kosztach, wykorzystując nieużywane zasoby. Jednocześnie weryfikacja, czy obliczenia rzeczywiście zostały przeprowadzone, jest realizowana za pomocą procedur kryptograficznych i weryfikacji opartej na grach, co zastępuje proste deklaracje zaufania technicznymi dowodami.
Po zakończeniu uczenia weryfikacja nie kończy się. Należy potwierdzić, czy wyniki wnioskowania są poprawne, gdy model rzeczywiście wykonuje wnioskowanie. OpenGradient odpowiada za weryfikację na tym etapie wnioskowania. W strukturze OpenGradient wnioskowanie AI jest realizowane w ramach transakcji blockchain, a wyniki wnioskowania są potwierdzane zgodnie z wybraną metodą weryfikacji. Najsilniejszą metodą jest matematyczne udowodnienie dokładności obliczeń za pomocą dowodów zerowej wiedzy, a także wykorzystywanie zaufanych środowisk wykonawczych opartych na sprzęcie. W sytuacjach o stosunkowo niskim ryzyku można zastosować prostą metodę opartą na zabezpieczeniach kryptoeconomicznych. Różne metody są wybierane w zależności od znaczenia, kosztów i wymagań wydajności wnioskowania.
Cechą charakterystyczną OpenGradient jest to, że proces wnioskowania nie jest traktowany jako tajny poza łańcuchem, ale jako część przejścia stanu blockchain. Pliki modeli są przechowywane w rozproszonej pamięci, a żądania wnioskowania i wyniki są połączone za pomocą wyraźnych identyfikatorów. Dzięki temu można później zweryfikować, jaki model wygenerował jakie wyniki w odpowiedzi na konkretne dane wejściowe oraz jaką metodą weryfikacji to zrobiono. Wyniki wnioskowania są rejestrowane nie jako proste wartości wyjściowe, ale jako produkty weryfikowalnych obliczeń.
W ten sposób OpenLedger, Gensyn i OpenGradient pełnią różne role na etapach danych, uczenia i wnioskowania. Na etapie danych śledzone są źródła i wkłady, na etapie uczenia weryfikowana jest dokładność obliczeń, a na etapie wnioskowania udowadniana jest zasadność wyników. Te trzy warstwy nie są zintegrowanym systemem, ale funkcjonalnie tworzą jeden ciąg weryfikacji. Struktura ta została zaprojektowana tak, aby żadna z warstw nie pozostała nieprzezroczysta.
Taka struktura weryfikacji danych w zdecentralizowanym obliczaniu AI pokazuje zmianę w sposobie, w jaki sztuczna inteligencja staje się bardziej wiarygodna. Przesunięcie podstawy zaufania z reputacji firm lub wewnętrznych kontroli na techniczne dowody sprawia, że systemy sztucznej inteligencji wbudowują w siebie strukturalnie wyjaśnialność i odpowiedzialność. Środowisko, w którym można potwierdzić, skąd pochodzą dane, jak przebiegało uczenie i czy wnioskowanie było dokładne, sprawia, że sztuczna inteligencja jest traktowana nie jako nieprzeniknione narzędzie, ale jako weryfikowalny system obliczeniowy. To pokazuje, że decentralizacja wykracza poza proste rozproszenie i przekształca samą strukturę zaufania w sztucznej inteligencji.
$OPEN



Najlepsze
Ranking
Ulubione
