Przejrzysta struktura zapewnienia zaufania dla trenowania i weryfikacji rozproszonych modeli AI @gensynai , @nesaorg , @DeepNodeAI Podczas trenowania i weryfikacji modeli AI w rozproszonym środowisku, pierwszym założeniem, które należy wziąć pod uwagę, jest to, że nie można zakładać, iż wszyscy uczestnicy zawsze będą działać uczciwie. W rzeczywistych badaniach i przypadkach operacyjnych zidentyfikowano konkretne wzorce awarii, takie jak bezpłatne korzystanie z wyników, które są wiarygodne, ale niezweryfikowane, w celu zmniejszenia kosztów obliczeniowych, wprowadzanie złośliwych danych do procesu uczenia, manipulowanie przesyłanymi zdaniami w procesie uczenia przez wzmocnienie, manipulacje gradientami, które nie są statystycznie widoczne, oraz sytuacje, w których wiele węzłów współdziała, aby zniekształcić strukturę konsensusu. Te czynniki ryzyka stanowią punkt wyjścia do wyjaśnienia, dlaczego techniczne mechanizmy zapewnienia przejrzystości i zaufania są niezbędne. Aby odpowiedzieć na ten problem, Gensyn przedstawia strukturę skoncentrowaną na wykonaniu, która traktuje samo wykonanie obliczeń jako cel weryfikacji. W tej strukturze zadania uczenia maszynowego są rozkładane na deterministyczne grafy obliczeniowe w jednostkach operacyjnych, które można powtórzyć, a te same operacje są projektowane tak, aby były identyczne na różnych środowiskach sprzętowych, aż do poziomu bitów. Protokół Verde łączy delegację arbitrażu z grą dychotomiczną, aby znaleźć pierwszy punkt operacyjny, w którym wyniki obliczeń są rozbieżne, a ponowne wykonanie jest ograniczone do minimalnych części, w których wystąpił spór, co pozwala na zachowanie efektywności. Ekonomiczne dostosowanie jest realizowane w oparciu o rollupy na Ethereum, a rzeczywiste obliczenia w dużej skali są przeprowadzane poza łańcuchem, ale kluczową cechą jest to, że dokładność wyników jest kryptograficznie zapewniona, jeśli istnieje przynajmniej jeden uczciwy węzeł. W tym samym stosie Gensyn's Delphi pełni rolę weryfikacji, jak dobrze działa model wynikowy, a nie jak zostały przeprowadzone obliczenia. Delphi organizuje ocenę wydajności modelu w formie rynku przewidywań, gdzie uczestnicy mogą obstawiać wyniki wydajności, a logika oceny na łańcuchu zapewnia przejrzystość wyników. Proces ten opiera się na weryfikacji statystycznej i zachętach ekonomicznych, a nie na dowodach kryptograficznych, ale działa jako mechanizm zapewniający przejrzystość, ponieważ kryteria oceny i wyniki są publicznie rejestrowane. Z drugiej strony Nesa przyjmuje strukturę, która priorytetowo traktuje ochronę prywatności nad przejrzystością. Nesa dzieli model na wiele fragmentów i umieszcza je za pomocą sekwencyjnego szardowania sieci neuronowych opartego na blockchainie, stosując homomorficzne techniki rozproszonego szyfrowania i szyfrowane osadzenia, aby żaden pojedynczy węzeł nie mógł zobaczyć całego modelu ani całych danych. To podejście koncentruje się na efektywnym dostrajaniu parametrów z wykorzystaniem adapterów, zamiast trenowania całego modelu od podstaw, a jego cechą charakterystyczną jest utrzymanie granic prywatności poprzez procedurę weryfikacji wyników wnioskowania przeprowadzonych poza łańcuchem na łańcuchu. Należy jednak zauważyć, że ze względu na szyfrowanie procesu obliczeniowego, zewnętrzne odtworzenie lub weryfikacja obliczeń jest trudna, co stanowi strukturalne ograniczenie. DeepNode AI podchodzi do przejrzystości z innej perspektywy. System ten wykorzystuje mechanizmy rynkowe oparte na wzajemnej ocenie węzłów i stakowaniu, zamiast dowodów kryptograficznych dotyczących procesu obliczeniowego. Każdy system inteligentny ocenia informacje wyjściowe innych systemów, a nagrody są przydzielane zgodnie z funkcją straty ważoną stawką. W ramach powtarzających się interakcji kształtuje się reputacja, a błędne zgłoszenia są karane, a te ekonomiczne presje pomagają wyrównać zachowania uczestników. Ta struktura nie dostarcza dowodów kryptograficznych, ale wyróżnia się tym, że w sposób przejrzysty ujawnia motywacje uczestników, budując zaufanie. Podsumowując te podejścia, można zauważyć, że przejrzystość w trenowaniu i weryfikacji rozproszonych AI nie jest jedną, jednolitą koncepcją, lecz jest realizowana na wielu poziomach. Verde Gensyn weryfikuje, czy zadania są wykonywane, Delphi ocenia wydajność wyników, DeepNode weryfikuje wkład i integralność uczestników, a Nesa koncentruje się na minimalizacji ekspozycji danych i modeli w tym całym procesie. Jednocześnie szyfrowane obliczenia ograniczają powtarzalność i bezpośrednią możliwość audytu, a struktura wymagająca pełnej powtarzalności prawie nie zapewnia prywatności danych, co wyraźnie ujawnia napięcia. W rezultacie obecny rozproszony stos AI jest oceniany jako niezdolny do całkowitego rozwiązania problemów, takich jak źródło i autentyczność danych treningowych, synchronizacja gradientów w globalnym środowisku oraz dostosowanie między różnymi systemami ekonomicznymi. Niemniej jednak różne mechanizmy, takie jak weryfikacja obliczeń, ocena wydajności, zachęty ekonomiczne i ochrona prywatności, zapewniają przejrzystość w ramach weryfikowalnych zakresów, co sprawia, że strukturalne elementy przejrzystego trenowania i weryfikacji rozproszonych modeli AI są stosunkowo jasno zdefiniowane. $NESA