Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Weryfikacja danych w zdecentralizowanym obliczaniu AI: trzy podejścia do potwierdzania integralności w rozproszonym środowisku
@OpenledgerHQ , @gensynai , @OpenGradient
Zdecentralizowane obliczanie AI staje się bardziej istotne, ponieważ struktura, w której wielu uczestników dzieli się danymi i obliczeniami, stawia większy nacisk na to, jak zapewnić zaufanie w porównaniu do tradycyjnych metod opartych na centralnych serwerach. W tym kontekście OpenLedger, Gensyn i OpenGradient są przedstawiane jako projekty odpowiedzialne za weryfikację na różnych etapach: danych, uczenia i wnioskowania.
Gensyn dąży do stworzenia rozproszonej sieci uczenia, która zbiera rozproszone na całym świecie zasoby obliczeniowe do uczenia modeli AI. Proponuje metody uczenia o niskiej komunikacji, takie jak NoLoCo, oraz techniki odzyskiwania po awarii, takie jak CheckFree, aby umożliwić uczenie w środowiskach o wolnej komunikacji i zróżnicowanej wydajności urządzeń. Jednocześnie, za pomocą protokołu Verde, weryfikuje, czy obliczenia uczenia zostały prawidłowo przeprowadzone, a w przypadku różnic w wynikach, stosuje strukturę, która ponownie wykonuje tylko określony etap obliczeń, zamiast całego procesu uczenia. W tym celu wykorzystuje bibliotekę RepOps, aby wymusić deterministyczne wyniki obliczeń na różnych sprzętach. Należy jednak zauważyć, że ta weryfikacja dotyczy jedynie dokładności obliczeń dla podanych danych wejściowych i nie ocenia automatycznie, czy dane użyte do uczenia były wcześniej zanieczyszczone.
OpenLedger koncentruje się na śledzeniu źródła i historii zmian danych używanych do uczenia. Wkład danych jest składany przez uczestników w określonym formacie pliku do Datanet, a ten wkład jest rejestrowany na łańcuchu bloków, co pozwala na sprawdzenie, kiedy i jakie dane były używane w jakiej wersji. Ogranicza rozmiar plików i częstotliwość przesyłania, aby przejść przez proces zatwierdzania i zarządzania wersjami, co ma na celu ograniczenie niekontrolowanego napływu danych. Opisano strukturę, w której złośliwe lub duplikowane wkłady są tłumione poprzez ocenę jakości i kary oparte na stakowaniu, co wyraźnie pokazuje cel zapewnienia odpowiedzialności i możliwości śledzenia wkładów danych.
OpenGradient odpowiada za weryfikację, czy model po zakończeniu uczenia prawidłowo wykonuje wnioskowanie. Pozostawia dowody kryptograficzne lub dowody oparte na sprzęcie wraz z wynikami wnioskowania, rejestrując je w Gradient Ledger, co umożliwia audyt wyników po fakcie. Aby zmniejszyć obciążenie wydajności, ciężkie obliczenia są przetwarzane równolegle poza łańcuchem, a łańcuch bloków weryfikuje jedynie wyniki i dowody. Wśród metod weryfikacji wyróżnia się ZKML, które oferuje wysoką gwarancję, ale wiąże się z dużymi kosztami obliczeniowymi, TEE, które ma minimalne obciążenie wydajnościowe, ale opiera się na zaufaniu do sprzętu, oraz Vanilla, która pomija weryfikację.
Podsumowując te trzy projekty, OpenLedger rejestruje, jakie dane zostały wprowadzone, Gensyn potwierdza, czy uczenie zostało prawidłowo przeprowadzone na poziomie obliczeń, a OpenGradient weryfikuje, czy wyuczony model prawidłowo wykonuje wnioskowanie. Należy jednak zauważyć, że na dzień 1 stycznia 2026 roku te etapy nie są połączone w jeden oficjalny pipeline technologiczny, a standardy łączące dowody źródła danych, weryfikację uczenia i weryfikację wnioskowania nie zostały jeszcze przedstawione.
Ostatecznie obecna weryfikacja danych AI w zdecentralizowanym systemie można zrozumieć jako stan, w którym różne urządzenia na różnych poziomach, takie jak rejestracja danych, weryfikacja obliczeń uczenia i weryfikacja wnioskowania, rozwijają się równolegle, mając wyraźne role i ograniczenia, zamiast być "systemem, który jednocześnie zapewnia wszystko doskonale".
$OPEN



Najlepsze
Ranking
Ulubione
