Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

더 쓰니 | THE SSUNI
Maksymaliści społeczności.
Bez komentarza. Gomen Nasai. (tymczasowa akcja)
Uprzejmie odmawiam prośbie.
Nie odpowiadam na pytania osobiste.
Proszę, ucz się tam, gdzie trzeba.
Szanujcie swoje ścieżki i idźcie własną drogą.
Podoba mi się.
Weryfikacja danych w zdecentralizowanym obliczaniu AI: trzy podejścia do potwierdzania integralności w rozproszonym środowisku
@OpenledgerHQ , @gensynai , @OpenGradient
Zdecentralizowane obliczanie AI staje się bardziej istotne, ponieważ struktura, w której wielu uczestników dzieli się danymi i obliczeniami, stawia większy nacisk na to, jak zapewnić zaufanie w porównaniu do tradycyjnych metod opartych na centralnych serwerach. W tym kontekście OpenLedger, Gensyn i OpenGradient są przedstawiane jako projekty odpowiedzialne za weryfikację na różnych etapach: danych, uczenia i wnioskowania.
Gensyn dąży do stworzenia rozproszonej sieci uczenia, która zbiera rozproszone na całym świecie zasoby obliczeniowe do uczenia modeli AI. Proponuje metody uczenia o niskiej komunikacji, takie jak NoLoCo, oraz techniki odzyskiwania po awarii, takie jak CheckFree, aby umożliwić uczenie w środowiskach o wolnej komunikacji i zróżnicowanej wydajności urządzeń. Jednocześnie, za pomocą protokołu Verde, weryfikuje, czy obliczenia uczenia zostały prawidłowo przeprowadzone, a w przypadku różnic w wynikach, stosuje strukturę, która ponownie wykonuje tylko określony etap obliczeń, zamiast całego procesu uczenia. W tym celu wykorzystuje bibliotekę RepOps, aby wymusić deterministyczne wyniki obliczeń na różnych sprzętach. Należy jednak zauważyć, że ta weryfikacja dotyczy jedynie dokładności obliczeń dla podanych danych wejściowych i nie ocenia automatycznie, czy dane użyte do uczenia były wcześniej zanieczyszczone.
OpenLedger koncentruje się na śledzeniu źródła i historii zmian danych używanych do uczenia. Wkład danych jest składany przez uczestników w określonym formacie pliku do Datanet, a ten wkład jest rejestrowany na łańcuchu bloków, co pozwala na sprawdzenie, kiedy i jakie dane były używane w jakiej wersji. Ogranicza rozmiar plików i częstotliwość przesyłania, aby przejść przez proces zatwierdzania i zarządzania wersjami, co ma na celu ograniczenie niekontrolowanego napływu danych. Opisano strukturę, w której złośliwe lub duplikowane wkłady są tłumione poprzez ocenę jakości i kary oparte na stakowaniu, co wyraźnie pokazuje cel zapewnienia odpowiedzialności i możliwości śledzenia wkładów danych.
OpenGradient odpowiada za weryfikację, czy model po zakończeniu uczenia prawidłowo wykonuje wnioskowanie. Pozostawia dowody kryptograficzne lub dowody oparte na sprzęcie wraz z wynikami wnioskowania, rejestrując je w Gradient Ledger, co umożliwia audyt wyników po fakcie. Aby zmniejszyć obciążenie wydajności, ciężkie obliczenia są przetwarzane równolegle poza łańcuchem, a łańcuch bloków weryfikuje jedynie wyniki i dowody. Wśród metod weryfikacji wyróżnia się ZKML, które oferuje wysoką gwarancję, ale wiąże się z dużymi kosztami obliczeniowymi, TEE, które ma minimalne obciążenie wydajnościowe, ale opiera się na zaufaniu do sprzętu, oraz Vanilla, która pomija weryfikację.
Podsumowując te trzy projekty, OpenLedger rejestruje, jakie dane zostały wprowadzone, Gensyn potwierdza, czy uczenie zostało prawidłowo przeprowadzone na poziomie obliczeń, a OpenGradient weryfikuje, czy wyuczony model prawidłowo wykonuje wnioskowanie. Należy jednak zauważyć, że na dzień 1 stycznia 2026 roku te etapy nie są połączone w jeden oficjalny pipeline technologiczny, a standardy łączące dowody źródła danych, weryfikację uczenia i weryfikację wnioskowania nie zostały jeszcze przedstawione.
Ostatecznie obecna weryfikacja danych AI w zdecentralizowanym systemie można zrozumieć jako stan, w którym różne urządzenia na różnych poziomach, takie jak rejestracja danych, weryfikacja obliczeń uczenia i weryfikacja wnioskowania, rozwijają się równolegle, mając wyraźne role i ograniczenia, zamiast być "systemem, który jednocześnie zapewnia wszystko doskonale".
$OPEN



Fundusze robotów i marketing influencerów: rzeczywista struktura eksperymentu XMAQUINA
@xmaquina , @superformxyz , @R3ACHNTWRK
Materiał badawczy opisuje, jak XMAQUINA, DAO inwestujące w roboty i Physical AI, łączy Superform i R3ACH NTWRK w ramach jednego eksperymentu, aby zebrać i zarządzać funduszami. Eksperyment ten jest podsumowany jako przykład, w którym struktura zarządzania funduszami DAO inwestycji w roboty, infrastruktura optymalizacji zysków w omnichain oraz kanały promocyjne oparte na sieci twórców działają jednocześnie.
XMAQUINA zebrała łącznie 12,315 miliona dolarów w kilku rundach do stycznia 2026 roku, a 92% funduszy zebranych podczas Genesis Auction bezpośrednio wpływa do skarbczyka DAO. W fazie pre-TGE, Northstar Council posiada prawo do składania propozycji, a decyzje są podejmowane w ciągu 3-5 dni za pomocą głosowania off-chain na Snapshot. W strukturze tokenów wspomniane są DEUS, które mają ograniczenia w transferze w fazie pre-TGE, oraz xDEUS w formie soulbound, które są powiązane z okresem stakowania, a skarbczyk można sprawdzić w czasie rzeczywistym za pośrednictwem publicznego dashboardu.
Jednym z sposobów zarządzania tymi funduszami jest Superform. Superform jest opisany jako niepowiernicza warstwa agregacyjna, która łączy rozproszone po różnych łańcuchach zyskujące na wartości vaulty oparte na ERC-4626, a do przetwarzania depozytów i wypłat w pojedynczej transakcji wykorzystuje infrastrukturę komunikacyjną, taką jak LI FI bridge aggregator, LayerZero, Wormhole, Hyperlane i deBridge. Materiał zawiera przykłady vaultów USDC opartych na Morpho na łańcuchu Base, które w ciągu 30 dni osiągnęły średnie stopy zwrotu na poziomie 2%, a jednocześnie wskazuje na ryzyko związane z zależnością od mostów i podatności zewnętrznych protokołów.
Rola pozyskiwania funduszy i ekspozycji publicznej jest przypisana R3ACH NTWRK. R3ACH NTWRK to sieć twórców działająca bez tokenów, która łączy projekty blockchainowe z twórcami, koordynując kampanie. Na styczeń 2026 roku posiada około 18 tysięcy obserwujących w mediach społecznościowych, a w materiałach wymienione są liczne partnerstwa związane z web3 i grami, takie jak Ubisoft, Animoca Brands i Arbitrum. W materiałach znajdują się również rzeczywiste przykłady promocji, takie jak ProtoKOLs Analytics, kampania AI Arena oraz coroczne treści Wrapped.
Materiał badawczy porównuje tę strukturę z istniejącymi przykładami pozyskiwania funduszy prowadzonymi przez twórców. Przykłady projektów, takich jak HAWK, BOME, GOAT, TURBO, które miały duży wpływ influencerów, szybko przyciągnęły znaczne fundusze, ale później doświadczyły dużego spadku wartości. To porównanie pokazuje, że sieć twórców była skuteczna w przyspieszaniu początkowego napływu funduszy, ale długoterminowe utrzymanie zaufania i stabilności to odrębne kwestie, które są przedstawione w formie danych.
Ostatecznie kluczowym punktem, który pokazuje materiał badawczy, jest to, że XMAQUINA tworzy strukturę inwestycji w roboty opartą na DAO, próbując zarządzać zyskami skarbczyka za pośrednictwem Superform i promując to za pomocą R3ACH NTWRK. Jednocześnie to połączenie powinno być badane w kontekście przeszłych przypadków marketingu twórców, ryzyk związanych z mostami i smart kontraktami oraz problemów regulacyjnych i zaufania, które zostały już potwierdzone.



2,47K
Najlepsze
Ranking
Ulubione
