Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

더 쓰니 | THE SSUNI
Maksymaliści społeczności.
Bez komentarza. Gomen Nasai. (tymczasowa akcja)
Uprzejmie odmawiam prośbie.
Nie odpowiadam na pytania osobiste.
Proszę, ucz się tam, gdzie trzeba.
Szanujcie swoje ścieżki i idźcie własną drogą.
Podoba mi się.
Wbudowany asystent AI w przeglądarkach internetowych
@On_Veera , @alturax , @HeyElsaAI
Próba wbudowania funkcji AI w przeglądarkę internetową, aby wspierać rozgrywkę, może być rozumiana jako techniczny eksperyment mający na celu połączenie środowiska internetowego, środowiska gier oraz interfejsu sztucznej inteligencji w jedną spójną całość. Koncepcja ta opiera się na założeniu, że w przeglądarce Veera, skoncentrowanej na prywatności, uruchamiane są gry oparte na blockchainie, takie jak Altura, a jednocześnie asystent AI HeyElsa dostarcza informacje w czasie rzeczywistym na ekranie. Użytkownicy doświadczają korzystania z gier, portfela i interfejsu AI w przeglądarce bez konieczności instalowania dodatkowych programów czy narzędzi rozszerzających.
Przeglądarka Veera została zaprojektowana jako środowisko wykonawcze, które integruje dostęp do zdecentralizowanych aplikacji oraz funkcje portfela, a jej struktura chroni klucze za pomocą uwierzytelniania opartego na kluczach i obszarów bezpieczeństwa sprzętowego. Gdy gra jest uruchamiana w tej przeglądarce, technologia grafiki internetowej renderuje ekran, a użytkownicy łączą się z grą w sposób podobny do przeglądania stron internetowych. W tym środowisku HeyElsa jest wbudowana w formie widgetu, oferując interfejs konwersacyjny oparty na języku naturalnym, interpretując dane wejściowe użytkownika i umożliwiając przeszukiwanie danych on-chain lub stanu konta.
Altura to platforma, która oferuje infrastrukturę do zarządzania przedmiotami w formie inteligentnych NFT, gdzie informacje o właściwościach przedmiotów, rzadkości i możliwości ich wyposażenia są rejestrowane na blockchainie. HeyElsa może przeszukiwać te metadane NFT za pośrednictwem SDK lub API dostarczanego przez Altura, a na ich podstawie generować informacje opisujące cechy lub aktualny stan przedmiotów posiadanych przez użytkownika. W tym procesie AI nie wykonuje ani nie manipuluje samą logiką gry, lecz pozostaje w roli pomocniczej, uzyskując dostęp do już istniejących danych i je interpretując.
Podczas rozgrywki, gdy użytkownik wprowadza pytanie, dane te są przekazywane do interfejsu HeyElsa w przeglądarce. HeyElsa analizuje to żądanie i w razie potrzeby przeszukuje dane NFT Altura lub informacje o saldzie portfela, a następnie przekazuje wyniki użytkownikowi w formie opisu w języku naturalnym. Na przykład, informacje o statystykach lub rzadkości przedmiotów w ekwipunku, a także dane o cenach oparte na przeszłych transakcjach są dostarczane tą drogą. W przypadku potrzeby dokonania transakcji lub przeniesienia przedmiotu, wbudowany w Veera portfel wymaga wyraźnej zgody użytkownika na etapie ostatecznego podpisu.
Taka struktura tworzy złożony przepływ użytkowania, w którym ekran gry, okno rozmowy AI i funkcje portfela działają jednocześnie. Przeglądarka jako środowisko wykonawcze uruchamia jednocześnie grę i AI, podczas gdy AI koncentruje się na interpretacji informacji i wskazówkach, a rzeczywiste przenoszenie aktywów na blockchainie odbywa się zawsze za bezpośrednią zgodą użytkownika. Dzięki temu zachowany jest podział odpowiedzialności, co zapobiega automatyzowanej grze lub nieautoryzowanym transakcjom.
Jednakże, mimo że wbudowany asystent AI w przeglądarkach internetowych jest technicznie możliwy, to w rzeczywistości nie ma jeszcze w pełni zrealizowanego przypadku integracji. HeyElsa do tej pory koncentruje się na funkcjach związanych z finansami i zarządzaniem aktywami, a funkcje rozumienia kontekstu, takie jak stan gry czy sytuacja w walce, nie zostały udokumentowane. Altura również oferuje infrastrukturę do uzyskiwania dostępu do danych NFT, ale w przypadku braku aktywnych transakcji, skuteczność analizy cen może być ograniczona. Veera również pozostaje na etapie roadmapy, jeśli chodzi o uruchomienie agentów AI w pełnym środowisku wykonawczym.
Niemniej jednak, ta struktura pokazuje próbę rozszerzenia przeglądarki internetowej z prostego narzędzia dostępowego na zintegrowany interfejs, który jednocześnie obsługuje gry, aktywa i AI. Użytkownicy mogą cieszyć się grą na jednym ekranie, jednocześnie sprawdzając informacje o przedmiotach i stan aktywów, a także otrzymując złożone dane blockchainowe w formie opisów w języku naturalnym. Wbudowany asystent AI w przeglądarkach internetowych można podsumować jako nową formę doświadczenia użytkownika, łączącą wsparcie w rozgrywce i dostęp do informacji.



Automatyczne inwestowanie w zyski z pasma nie jest jeszcze 'automatyczne'
@PerceptronNTWK , @NetworkNoya , @beyond__tech
Na dzień 20 stycznia 2026 roku, "bezpośrednia integracja", która łączy Perceptron Network, Beyond Protocol i Noya w celu automatycznego umieszczania nagród za nieużywane pasmo w omniczłonowym zbiorniku zysków, nie została potwierdzona w udokumentowanej formie, jak podsumowuje raport badawczy.
Perceptron Network jest opisany jako rozszerzenie przeglądarki, które umożliwia jednoczesne aktywowanie węzłów jednym kliknięciem, a zużycie pasma i wskaźniki są automatycznie aktualizowane na pulpicie. Działania, które przeszły weryfikację przez rówieśników, są odzwierciedlane w akumulacji nagród. Ślady uczestnictwa i weryfikacji są wyrażane w poziomach NFT PERC, a mechanizmy takie jak łączenie tych samych poziomów w wyższe poziomy oraz dystrybucja według poziomów są wspomniane. Jednak token $PERC znajduje się w fazie pre-TGE, a raport wskazuje, że na dzień 20 stycznia 2026 roku w Solanie zaobserwowano ograniczoną dystrybucję i bardzo małą kapitalizację rynkową.
Aby nagrody mogły przejść na inwestycje, raport wskazuje, że konieczna jest 'konwersja aktywów' i 'przemieszczenie'. Jako przykład ścieżki, po zgłoszeniu nagród w Perceptron, pojawia się etap wymiany $PERC na inne aktywa w środowisku DEX Solany, takie jak Jupiter, a obserwacja wskazuje, że w przypadku niskiej płynności mogą wystąpić slippage lub częściowe realizacje. Od tego momentu pipeline wymaga decyzji i podpisu użytkownika dotyczącego transakcji.
Beyond Protocol jest opisany jako most interoperacyjności L1 Bitcoin, a kluczowym elementem jest próg 7 z 11, gdzie 7 z 11 osób podpisuje w strukturze MPC/TSS zwanej Forge. Przedstawiono przepływ, w którym blokuje się na łańcuchu źródłowym i mintuje się wrapping na L1 Bitcoin lub odwrotnie, wyzwalając odblokowanie na Bitcoinie, aby zarobić na oryginalnym łańcuchu. Wspomniano również o ścieżkach przetwarzania konwersji między standardami, takimi jak BRC-20 i Runes, w obrębie Bitcoina. Chociaż Beyond opisuje wykorzystanie komunikacji omniczłonowej opartej na LayerZero, raport wskazuje, że 'automatyczne przelewy z perspektywy użytkownika', takie jak zaplanowane przesyłki czy mosty warunkowe, nie zostały potwierdzone w dokumentach. Dodatkowo, czas potwierdzenia L1 Bitcoin i możliwość wzrostu opłat w przypadku zatłoczenia są podsumowane jako czynniki niekorzystne dla przepływów, które często przenoszą małe kwoty.
Noya jest przedstawiana jako narzędzie optymalizacji zysków omniczłonowych, które promuje AI i ZKML, a w raporcie wspomniano o protokołach takich jak Aave i Morpho oraz o oraklach Chainlink i Uniswap oraz routingu LI FI. Przepływ w zbiorniku jest opisany jako otrzymywanie tokena potwierdzającego po wpłacie, który jest umieszczany w strategii, jednak raport stwierdza, że Noya zasadniczo wymaga przeglądu i podpisu użytkownika w trybie human-in-loop i nie przenosi funduszy autonomicznie. Na dzień 20 stycznia 2026 roku TVL wynosi 0 dolarów, a nawet jeśli na ekranie wyświetlane są wartości APY, trudno je zweryfikować na podstawie rzeczywistych danych operacyjnych. W sekcji dotyczącej bezpieczeństwa i audytu wspomniano o monitorowaniu Hacken, Code4rena, Custodia oraz o programie nagród za błędy, a także o incydentach związanych z kluczem operacyjnym w czerwcu 2025 roku.
Raport stwierdza, że łącząc te trzy elementy w jeden ciąg, nie prowadzi to do automatycznego przepływu, lecz w takich segmentach jak zgłaszanie i wymiana w Perceptron, realizacja mostu w Beyond oraz depozyt i wypłata w Noya, działania użytkownika są wielokrotnie wymagane. Jako porównanie wspomniano o przypadkach przestojów w ekosystemach Grass, Helium, LayerZero oraz o historii operacji keeperów w automatycznych zbiornikach złożonego oprocentowania, takich jak Yearn Finance i Beefy Finance, podkreślając, że 'automatyzacja' nie polega na zmniejszaniu liczby przycisków, lecz na długim łańcuchu zaufania obejmującym mosty, zbiorniki, uprawnienia do realizacji i bezpieczeństwo operacyjne.
$PERC $NOYA $BTC $SOL



3,81K
Weryfikacja danych w zdecentralizowanym obliczaniu AI: trzy podejścia do potwierdzania integralności w rozproszonym środowisku
@OpenledgerHQ , @gensynai , @OpenGradient
Zdecentralizowane obliczanie AI staje się bardziej istotne, ponieważ struktura, w której wielu uczestników dzieli się danymi i obliczeniami, stawia większy nacisk na to, jak zapewnić zaufanie w porównaniu do tradycyjnych metod opartych na centralnych serwerach. W tym kontekście OpenLedger, Gensyn i OpenGradient są przedstawiane jako projekty odpowiedzialne za weryfikację na różnych etapach: danych, uczenia i wnioskowania.
Gensyn dąży do stworzenia rozproszonej sieci uczenia, która zbiera rozproszone na całym świecie zasoby obliczeniowe do uczenia modeli AI. Proponuje metody uczenia o niskiej komunikacji, takie jak NoLoCo, oraz techniki odzyskiwania po awarii, takie jak CheckFree, aby umożliwić uczenie w środowiskach o wolnej komunikacji i zróżnicowanej wydajności urządzeń. Jednocześnie, za pomocą protokołu Verde, weryfikuje, czy obliczenia uczenia zostały prawidłowo przeprowadzone, a w przypadku różnic w wynikach, stosuje strukturę, która ponownie wykonuje tylko określony etap obliczeń, zamiast całego procesu uczenia. W tym celu wykorzystuje bibliotekę RepOps, aby wymusić deterministyczne wyniki obliczeń na różnych sprzętach. Należy jednak zauważyć, że ta weryfikacja dotyczy jedynie dokładności obliczeń dla podanych danych wejściowych i nie ocenia automatycznie, czy dane użyte do uczenia były wcześniej zanieczyszczone.
OpenLedger koncentruje się na śledzeniu źródła i historii zmian danych używanych do uczenia. Wkład danych jest składany przez uczestników w określonym formacie pliku do Datanet, a ten wkład jest rejestrowany na łańcuchu bloków, co pozwala na sprawdzenie, kiedy i jakie dane były używane w jakiej wersji. Ogranicza rozmiar plików i częstotliwość przesyłania, aby przejść przez proces zatwierdzania i zarządzania wersjami, co ma na celu ograniczenie niekontrolowanego napływu danych. Opisano strukturę, w której złośliwe lub duplikowane wkłady są tłumione poprzez ocenę jakości i kary oparte na stakowaniu, co wyraźnie pokazuje cel zapewnienia odpowiedzialności i możliwości śledzenia wkładów danych.
OpenGradient odpowiada za weryfikację, czy model po zakończeniu uczenia prawidłowo wykonuje wnioskowanie. Pozostawia dowody kryptograficzne lub dowody oparte na sprzęcie wraz z wynikami wnioskowania, rejestrując je w Gradient Ledger, co umożliwia audyt wyników po fakcie. Aby zmniejszyć obciążenie wydajności, ciężkie obliczenia są przetwarzane równolegle poza łańcuchem, a łańcuch bloków weryfikuje jedynie wyniki i dowody. Wśród metod weryfikacji wyróżnia się ZKML, które oferuje wysoką gwarancję, ale wiąże się z dużymi kosztami obliczeniowymi, TEE, które ma minimalne obciążenie wydajnościowe, ale opiera się na zaufaniu do sprzętu, oraz Vanilla, która pomija weryfikację.
Podsumowując te trzy projekty, OpenLedger rejestruje, jakie dane zostały wprowadzone, Gensyn potwierdza, czy uczenie zostało prawidłowo przeprowadzone na poziomie obliczeń, a OpenGradient weryfikuje, czy wyuczony model prawidłowo wykonuje wnioskowanie. Należy jednak zauważyć, że na dzień 1 stycznia 2026 roku te etapy nie są połączone w jeden oficjalny pipeline technologiczny, a standardy łączące dowody źródła danych, weryfikację uczenia i weryfikację wnioskowania nie zostały jeszcze przedstawione.
Ostatecznie obecna weryfikacja danych AI w zdecentralizowanym systemie można zrozumieć jako stan, w którym różne urządzenia na różnych poziomach, takie jak rejestracja danych, weryfikacja obliczeń uczenia i weryfikacja wnioskowania, rozwijają się równolegle, mając wyraźne role i ograniczenia, zamiast być "systemem, który jednocześnie zapewnia wszystko doskonale".
$OPEN



45
Najlepsze
Ranking
Ulubione
