Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

더 쓰니 | THE SSUNI
Maksymaliści społeczności.
Bez komentarza. Gomen Nasai. (tymczasowa akcja)
Uprzejmie odmawiam prośbie.
Nie odpowiadam na pytania osobiste.
Proszę, ucz się tam, gdzie trzeba.
Szanujcie swoje ścieżki i idźcie własną drogą.
Podoba mi się.
Automatyczne inwestowanie w zyski z pasma nie jest jeszcze 'automatyczne'
@PerceptronNTWK , @NetworkNoya , @beyond__tech
Na dzień 20 stycznia 2026 roku, "bezpośrednia integracja", która łączy Perceptron Network, Beyond Protocol i Noya w celu automatycznego umieszczania nagród za nieużywane pasmo w omniczłonowym zbiorniku zysków, nie została potwierdzona w udokumentowanej formie, jak podsumowuje raport badawczy.
Perceptron Network jest opisany jako rozszerzenie przeglądarki, które umożliwia jednoczesne aktywowanie węzłów jednym kliknięciem, a zużycie pasma i wskaźniki są automatycznie aktualizowane na pulpicie. Działania, które przeszły weryfikację przez rówieśników, są odzwierciedlane w akumulacji nagród. Ślady uczestnictwa i weryfikacji są wyrażane w poziomach NFT PERC, a mechanizmy takie jak łączenie tych samych poziomów w wyższe poziomy oraz dystrybucja według poziomów są wspomniane. Jednak token $PERC znajduje się w fazie pre-TGE, a raport wskazuje, że na dzień 20 stycznia 2026 roku w Solanie zaobserwowano ograniczoną dystrybucję i bardzo małą kapitalizację rynkową.
Aby nagrody mogły przejść na inwestycje, raport wskazuje, że konieczna jest 'konwersja aktywów' i 'przemieszczenie'. Jako przykład ścieżki, po zgłoszeniu nagród w Perceptron, pojawia się etap wymiany $PERC na inne aktywa w środowisku DEX Solany, takie jak Jupiter, a obserwacja wskazuje, że w przypadku niskiej płynności mogą wystąpić slippage lub częściowe realizacje. Od tego momentu pipeline wymaga decyzji i podpisu użytkownika dotyczącego transakcji.
Beyond Protocol jest opisany jako most interoperacyjności L1 Bitcoin, a kluczowym elementem jest próg 7 z 11, gdzie 7 z 11 osób podpisuje w strukturze MPC/TSS zwanej Forge. Przedstawiono przepływ, w którym blokuje się na łańcuchu źródłowym i mintuje się wrapping na L1 Bitcoin lub odwrotnie, wyzwalając odblokowanie na Bitcoinie, aby zarobić na oryginalnym łańcuchu. Wspomniano również o ścieżkach przetwarzania konwersji między standardami, takimi jak BRC-20 i Runes, w obrębie Bitcoina. Chociaż Beyond opisuje wykorzystanie komunikacji omniczłonowej opartej na LayerZero, raport wskazuje, że 'automatyczne przelewy z perspektywy użytkownika', takie jak zaplanowane przesyłki czy mosty warunkowe, nie zostały potwierdzone w dokumentach. Dodatkowo, czas potwierdzenia L1 Bitcoin i możliwość wzrostu opłat w przypadku zatłoczenia są podsumowane jako czynniki niekorzystne dla przepływów, które często przenoszą małe kwoty.
Noya jest przedstawiana jako narzędzie optymalizacji zysków omniczłonowych, które promuje AI i ZKML, a w raporcie wspomniano o protokołach takich jak Aave i Morpho oraz o oraklach Chainlink i Uniswap oraz routingu LI FI. Przepływ w zbiorniku jest opisany jako otrzymywanie tokena potwierdzającego po wpłacie, który jest umieszczany w strategii, jednak raport stwierdza, że Noya zasadniczo wymaga przeglądu i podpisu użytkownika w trybie human-in-loop i nie przenosi funduszy autonomicznie. Na dzień 20 stycznia 2026 roku TVL wynosi 0 dolarów, a nawet jeśli na ekranie wyświetlane są wartości APY, trudno je zweryfikować na podstawie rzeczywistych danych operacyjnych. W sekcji dotyczącej bezpieczeństwa i audytu wspomniano o monitorowaniu Hacken, Code4rena, Custodia oraz o programie nagród za błędy, a także o incydentach związanych z kluczem operacyjnym w czerwcu 2025 roku.
Raport stwierdza, że łącząc te trzy elementy w jeden ciąg, nie prowadzi to do automatycznego przepływu, lecz w takich segmentach jak zgłaszanie i wymiana w Perceptron, realizacja mostu w Beyond oraz depozyt i wypłata w Noya, działania użytkownika są wielokrotnie wymagane. Jako porównanie wspomniano o przypadkach przestojów w ekosystemach Grass, Helium, LayerZero oraz o historii operacji keeperów w automatycznych zbiornikach złożonego oprocentowania, takich jak Yearn Finance i Beefy Finance, podkreślając, że 'automatyzacja' nie polega na zmniejszaniu liczby przycisków, lecz na długim łańcuchu zaufania obejmującym mosty, zbiorniki, uprawnienia do realizacji i bezpieczeństwo operacyjne.
$PERC $NOYA $BTC $SOL



543
Weryfikacja danych w zdecentralizowanym obliczaniu AI: trzy podejścia do potwierdzania integralności w rozproszonym środowisku
@OpenledgerHQ , @gensynai , @OpenGradient
Zdecentralizowane obliczanie AI staje się bardziej istotne, ponieważ struktura, w której wielu uczestników dzieli się danymi i obliczeniami, stawia większy nacisk na to, jak zapewnić zaufanie w porównaniu do tradycyjnych metod opartych na centralnych serwerach. W tym kontekście OpenLedger, Gensyn i OpenGradient są przedstawiane jako projekty odpowiedzialne za weryfikację na różnych etapach: danych, uczenia i wnioskowania.
Gensyn dąży do stworzenia rozproszonej sieci uczenia, która zbiera rozproszone na całym świecie zasoby obliczeniowe do uczenia modeli AI. Proponuje metody uczenia o niskiej komunikacji, takie jak NoLoCo, oraz techniki odzyskiwania po awarii, takie jak CheckFree, aby umożliwić uczenie w środowiskach o wolnej komunikacji i zróżnicowanej wydajności urządzeń. Jednocześnie, za pomocą protokołu Verde, weryfikuje, czy obliczenia uczenia zostały prawidłowo przeprowadzone, a w przypadku różnic w wynikach, stosuje strukturę, która ponownie wykonuje tylko określony etap obliczeń, zamiast całego procesu uczenia. W tym celu wykorzystuje bibliotekę RepOps, aby wymusić deterministyczne wyniki obliczeń na różnych sprzętach. Należy jednak zauważyć, że ta weryfikacja dotyczy jedynie dokładności obliczeń dla podanych danych wejściowych i nie ocenia automatycznie, czy dane użyte do uczenia były wcześniej zanieczyszczone.
OpenLedger koncentruje się na śledzeniu źródła i historii zmian danych używanych do uczenia. Wkład danych jest składany przez uczestników w określonym formacie pliku do Datanet, a ten wkład jest rejestrowany na łańcuchu bloków, co pozwala na sprawdzenie, kiedy i jakie dane były używane w jakiej wersji. Ogranicza rozmiar plików i częstotliwość przesyłania, aby przejść przez proces zatwierdzania i zarządzania wersjami, co ma na celu ograniczenie niekontrolowanego napływu danych. Opisano strukturę, w której złośliwe lub duplikowane wkłady są tłumione poprzez ocenę jakości i kary oparte na stakowaniu, co wyraźnie pokazuje cel zapewnienia odpowiedzialności i możliwości śledzenia wkładów danych.
OpenGradient odpowiada za weryfikację, czy model po zakończeniu uczenia prawidłowo wykonuje wnioskowanie. Pozostawia dowody kryptograficzne lub dowody oparte na sprzęcie wraz z wynikami wnioskowania, rejestrując je w Gradient Ledger, co umożliwia audyt wyników po fakcie. Aby zmniejszyć obciążenie wydajności, ciężkie obliczenia są przetwarzane równolegle poza łańcuchem, a łańcuch bloków weryfikuje jedynie wyniki i dowody. Wśród metod weryfikacji wyróżnia się ZKML, które oferuje wysoką gwarancję, ale wiąże się z dużymi kosztami obliczeniowymi, TEE, które ma minimalne obciążenie wydajnościowe, ale opiera się na zaufaniu do sprzętu, oraz Vanilla, która pomija weryfikację.
Podsumowując te trzy projekty, OpenLedger rejestruje, jakie dane zostały wprowadzone, Gensyn potwierdza, czy uczenie zostało prawidłowo przeprowadzone na poziomie obliczeń, a OpenGradient weryfikuje, czy wyuczony model prawidłowo wykonuje wnioskowanie. Należy jednak zauważyć, że na dzień 1 stycznia 2026 roku te etapy nie są połączone w jeden oficjalny pipeline technologiczny, a standardy łączące dowody źródła danych, weryfikację uczenia i weryfikację wnioskowania nie zostały jeszcze przedstawione.
Ostatecznie obecna weryfikacja danych AI w zdecentralizowanym systemie można zrozumieć jako stan, w którym różne urządzenia na różnych poziomach, takie jak rejestracja danych, weryfikacja obliczeń uczenia i weryfikacja wnioskowania, rozwijają się równolegle, mając wyraźne role i ograniczenia, zamiast być "systemem, który jednocześnie zapewnia wszystko doskonale".
$OPEN



2
Najlepsze
Ranking
Ulubione
