Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meta
Doświadczony gracz Gamefi
Inwestycje i inwestycje w projekty pierwotne i wtórne
🏅Współzałożyciel @Opensky_888
🏅 Główni członkowie @InFuture_Web3
Od momentu, gdy @0G_labs i Web3Labs uruchomiły globalny akcelerator 0G, wiele zespołów startupowych na całym świecie zgłosiło swoje projekty. Chociaż wybrane projekty nie zostały jeszcze ogłoszone, wszyscy czekają na Demo Day, który odbędzie się 29 sierpnia w Hongkongu. Wspólną cechą tych zgłoszonych projektów jest głęboka integracja z technologią 0G.
Niektóre kluczowe obszary, które stały się kierunkiem zainteresowania 0G 🎯
1️⃣ Rynki prognoz oparte na AI
Tradycyjne rynki prognoz, takie jak Polymarket, wciąż polegają na ręcznie tworzonych i kontrowersyjnych mechanizmach rozwiązywania, podczas gdy te nowe projekty badają sieci oracle do samodoskonalenia i wielomodelowe mechanizmy rozwiązywania. Jeden z projektów nawet rozwija nowy model łączący wiarę z ceną, wspierany przez rynki oparte na AI oraz weryfikację wyników.
2️⃣ Natywne platformy handlowe AI
Nie chodzi o dodawanie funkcji AI do istniejących platform DeFi, ale o budowanie natywnego środowiska wykonawczego dla agentów AI od podstaw. Niektóre projekty dynamicznie integrują przepływy danych między rynkami za pomocą MCP, co pozwala systemowi na ciągłe dostosowywanie się do zmieniających się warunków rynkowych.
3️⃣ Tokenizowane agenty AI / inteligentne NFT
Standard ERC-7857 iNFT 0G umożliwia tworzenie, posiadanie, trenowanie i monetyzację agentów AI na łańcuchu. Obecnie wiele projektów bada możliwości od rynku agentów konsumenckich po usługi w pełni napędzane przez wymienne iNFT.
4️⃣ Zdecentralizowana nauka
Projekty DeSci koncentrują się głównie na połączeniu AI z własnością danych i ich przechowywaniem, co idealnie wpisuje się w moduł aplikacji do przechowywania 0G oraz wartości AI jako dobra publicznego.
@0G_labs jako pierwszy natywny AI L1, poprzez modułową architekturę, weryfikowalne rozumowanie i dedykowaną warstwę wykonawczą AI, dostarcza brakującą infrastrukturę do pełnej integracji AI na łańcuchu.
Z tych sygnałów można zauważyć, że twórcy poszukują technicznej podstawy, która pozwoli agentom, modelom i danym działać bez potrzeby zaufania, a kombinowalność jest domyślną cechą. To idealnie współgra z filozofią projektowania 0G.

23,66K
Coraz więcej osób zaczyna dostrzegać, że AI przechodzi "hard fork". Z modelu "ogólnego", który chciał robić wszystko, powoli przechodzi w kierunku bardziej skoncentrowanych "modeli specjalistycznych". Pięć powodów wspomnianych w tweecie @OpenledgerHQ to wybory, które podejmuje cały sektor.
Z perspektywy zastosowań praktycznych, ogólne AI jest jak uniwersalne narzędzie, które może robić wszystko, ale nie robi nic dobrze. Z kolei specjalistyczne AI to rozwiązania dostosowane do konkretnych scenariuszy.
🎯 Rozwiązywanie problemów w sposób ukierunkowany
Modele specjalistyczne AI są głęboko zoptymalizowane dla określonych dziedzin. AI nie musi przetwarzać nieistotnych danych i scenariuszy, cała moc obliczeniowa i parametry koncentrują się na rozwiązaniu problemu w wąskiej dziedzinie. Taka koncentracja przynosi efekty w postaci wykładniczego wzrostu.
🔍 Możliwość wyjaśnienia staje się koniecznością
W wysokoryzykownych scenariuszach, takich jak finanse, nie można polegać tylko na czarnej skrzynce, aby uzyskać odpowiedzi. Wymogi regulacyjne, potrzeby zgodności, ustalanie odpowiedzialności - wszystko to wymaga, aby każdy krok rozumowania AI był możliwy do prześledzenia i weryfikacji. Modele specjalistyczne mogą projektować odpowiednie ścieżki decyzyjne dla konkretnych scenariuszy.
⛓️ Weryfikacja na łańcuchu i mechanizmy zaufania
Technologia blockchain pozwala na trwałe rejestrowanie i weryfikację procesu rozumowania AI. Specjalistyczne AI w połączeniu z dowodami na łańcuchu może budować kompletny łańcuch zaufania. Każde rozumowanie, każdy węzeł decyzyjny jest możliwy do śledzenia, co jest niezbędne w scenariuszach wymagających audytu i zgodności.
📊 Rozwiązywanie problemu iluzji
Iluzje ogólnego AI w dużej mierze wynikają z złożoności i różnorodności danych treningowych. Specjalistyczne AI, ograniczając zakres i jakość danych treningowych, może znacząco obniżyć wskaźnik iluzji. W wąskich dziedzinach jakość danych jest kontrolowana, granice wiedzy są jasne, a model łatwiej może dostarczyć dokładne i wiarygodne odpowiedzi.
💰 Przeliczenie efektywności kosztowej
Chociaż ogólne AI wydaje się, że jeden model może rozwiązać wszystkie problemy, rzeczywiste koszty wdrożenia są bardzo wysokie. Specjalistyczne AI może osiągnąć lepsze wyniki przy mniejszej skali modelu, niższych kosztach rozumowania i bardziej elastycznym wdrożeniu.
@OpenledgerHQ przedstawia te pięć punktów jako odpowiedź na rzeczywiste potrzeby branży. To nie tylko spór o kierunek, ale także wybór między efektywnością a wykonalnością. Duże modele reprezentują eksplorację, modele specjalistyczne reprezentują industrializację.
Zespoły takie jak Openledger, które inwestują w infrastrukturę na łańcuchu, mogą być prawdopodobnie dostawcami infrastruktury w tej fali zmian.

35,69K
Wczoraj po wysłuchaniu AMA @anoma, poczułem, że anoma naprawdę się rozwija.
Od początku budowy anoma do codziennego testowania w sieci testowej, czas minął bardzo szybko. Od wcześniejszego podekscytowania związanym z TGE do obecnego spokoju. Nawet czuję pewien sentyment do kończącej się sieci testowej.
Wczoraj wieczorem wprowadzono nową grę „automaty”, myślałem, że podobnie jak w poprzednich grach, użyjemy Fitcoin jako żetonów do gry. Nie spodziewałem się, że ostatecznie wybiorą Points.
Jak wiadomo, całkowita liczba Points decyduje o rankingu, a znaczenie rankingu jest oczywiste pod wpływem nagród w sieci testowej. W rzeczywistości jestem osobą, która ma pecha, wczoraj dopiero co zaczęła grać i straciłem 100 tysięcy Points, a wynik naturalnie nie zwrócił się. Mówią, że główna nagroda to nawet 1 milion Points.
Po udanym zagraniu dzisiaj, moje całkowite punkty wynoszą 5,56 miliona, a ranking to około 500. Planuję zagrać 100 małych kul, zobaczymy, co z tego wyniknie!
Po zakończeniu gry, całkowita liczba Points wynosi 5,79 miliona, a ranking to 427. W porównaniu do przed zagraniem 100 małych kul, zdobyłem 230 tysięcy Points. Średnio każda mała kula przyniosła 2300 Points.
Obecnie w sieci testowej wydano około 25 tysięcy kodów, a oficjalnie przewiduje się wydanie 30 tysięcy. Nadal 5000 kodów pozostaje w stanie niewydanym. Dostać się do pierwszych 500 to prawie 2% w sieci testowej. Ale szczerze mówiąc, gdy klikałem 100 małych kul, naprawdę chciałem „zainspirować”. Powiedziałem mu, że chcę kliknąć 100 małych kul, a skóra na głowie mi drżała🤣
Oprócz interakcji w sieci testowej @anoma, pamiętaj, aby codziennie śledzić, a jeśli masz wkład, możesz w każdą środę składać dowody wkładu w DC. Rola DC powinna również być w późniejszych snapshotach, więc pamiętaj, aby ją zdobyć. Jeszcze jedna rzecz, na którą należy zwrócić uwagę, to NFT, musisz znaleźć sposób, aby je zdobyć. Mam nadzieję, że wszyscy ostatecznie osiągną wielkie wyniki!



40,02K
Wiele osób, gdy wspomina o AI, myśli o dużych modelach LLM, inteligentnych odpowiedziach, czy mapach drogowych AGI, ale tak naprawdę niewiele osób zdaje sobie sprawę z jednej rzeczy: przyszła wartość AI może nie leżeć w samych modelach, lecz w treściach, które przetwarza, czyli w IP.
Obecnie globalna wartość gospodarki IP wynosi 61,9 biliona dolarów. Problem polega na tym, że tak ogromne zasoby treści są w dużej mierze zablokowane w stosie umów, scentralizowanych platform, ram prawnych i zamkniętych systemów. AI, aby z nich skorzystać, musi przejść przez wiele przeszkód, a także może napotkać pułapki.
Dlatego obecne modele AI w większości mogą jedynie potajemnie zbierać dane. Artykuły, obrazy, dźwięki, filmy w Internecie są cicho wykorzystywane do nauki modeli. Jednak ten sposób, w obliczu narastających problemów z prawami autorskimi, blokad platform i coraz większej liczby procesów prawnych, praktycznie nie ma przyszłości.
Myśl @campnetworkxyz jest bardzo jasna: nie blokować, nie kraść, lecz pozwolić, aby IP samo weszło na łańcuch, stając się programowalnym aktywem, które można legalnie łączyć i transparentnie autoryzować.
To również jest najważniejsza cecha Camp. Nie chodzi o stworzenie jakiejś platformy treści AI, lecz o bezpośrednie zbudowanie zestawu podstawowych protokołów i infrastruktury, które pozwolą wszystkim twórcom i właścicielom IP zarejestrować swoje treści na łańcuchu, jasno określić warunki autoryzacji i zdefiniować sposób podziału zysków. Jeśli modele AI chcą korzystać, płacą bezpośrednio według warunków.
Najważniejsze jest to, że cały ten proces jest kompozytowy. W przyszłości modele AI nie będą zbierać danych w ogromnej czarnej skrzynce, lecz będą swobodnie dobierać moduły treści, które można autoryzować, w zależności od różnych źródeł treści, zastosowań i stylów, jak klocki. A punktem wyjścia dla tego wszystkiego jest umieszczenie każdego IP na łańcuchu z określonymi warunkami autoryzacji + logiką zysków.
Znaczenie tej sprawy jest ogromne, ponieważ zmienia relację między AI a IP z pasywnego wydobywania i eksploatacji w równoprawną współpracę. Twórcy nie są już ofiarami plagiatu, lecz stają się dostawcami dla treningu AI i uczestnikami zysków komercyjnych.
Osobiście zgadzam się z poglądem @campnetworkxyz, że "największym rynkiem, który AI dotknie, jest IP". Nawet najsilniejszy model musi być zasilany danymi. Im więcej treści, jeśli nie są używane zgodnie z przepisami, prędzej czy później przyniesie to problemy.
41,14K
Wiele osób mówi o narzędziach handlowych, że powinny być szybsze, tańsze i bardziej płynne. Ale jeśli często handlujesz na wielu łańcuchach, zwłaszcza między Solana, ETH, Base, BSC, zrozumiesz, że łatwo jest to powiedzieć, ale w rzeczywistości prawie nikt nie potrafi tego zrealizować.
@LABtrade_ zasadniczo chce stworzyć warstwę infrastruktury do handlu wielołańcuchowego. Możesz używać dowolnego oprogramowania handlowego, ale z większą prędkością, niższymi opłatami i lepszymi funkcjami. To podejście jest całkiem sprytne, ponieważ nie zmusza użytkowników do zmiany nawyków, ale optymalizuje podstawy. Z danych wynika, że w ciągu 20 dni osiągnięto 150 milionów dolarów obrotu i 700 tysięcy dolarów przychodu, co jest całkiem imponujące.
LAB oferuje cztery produkty: robota handlowego, aplikację, pasek boczny i wtyczkę przeglądarki. Te narzędzia mogą działać bezproblemowo na każdym terminalu handlowym. Nie musisz zmieniać platformy ani ponownie przyzwyczajać się do interfejsu, możesz po prostu cieszyć się szybszą prędkością i niższymi opłatami w znanym środowisku.
Z perspektywy logiki biznesowej, LAB uchwycił bardzo praktyczny ból. Kiedy wszyscy handlują na łańcuchu, największym problemem są wysokie opłaty, wolne tempo i skomplikowane operacje. Tradycyjne DEX zaczynają od 1% opłat, a do tego trzeba czekać na potwierdzenie, co rzeczywiście nie jest zbyt komfortowe. LAB obniżył opłaty do 0,5%, a także nie ma progu wolumenu transakcji, co jest bardzo atrakcyjne dla detalistów.
Z perspektywy inwestorów, Lemniscap prowadzi inwestycję, a Animoca, OKX Ventures, Mirana to znane instytucje w branży. Ten zestaw inwestycyjny jest całkiem wiarygodny, przynajmniej pokazuje, że projekt przeszedł due diligence w instytucjach.
Z technicznego punktu widzenia, LAB już wspiera główne łańcuchy, takie jak Solana, Ethereum, Base, BSC. Wsparcie dla wielu łańcuchów w obecnym rozdzielonym ekosystemie jest rzeczywiście niezbędne, ponieważ użytkownicy nie muszą przełączać portfeli i narzędzi między różnymi łańcuchami.
Ogólnie rzecz biorąc, projekt LAB ma całkiem dobry pomysł, uchwycił prawdziwe potrzeby użytkowników, a wyniki danych również są zadowalające. Ale czy uda mu się utrzymać stabilną pozycję w intensywnej konkurencji, wymaga jeszcze czasu na weryfikację. Dla tych, którzy chcą wziąć udział, zaleca się najpierw małą próbę, aby doświadczyć produktu, a następnie zdecydować, czy zaangażować się głębiej.
Link:

34,71K
Dziś @OpenledgerHQ wypuściło swoją własną grę Octoman. Myślałem, że zagram sobie dla zabawy, ale jak tylko zacząłem, nie mogłem przestać. Głównym celem gry jest kontrolowanie ośmiorniczka, który huśta się w powietrzu, starając się lecieć jak najdalej, ale ta prosta mechanika sprawia, że gra staje się uzależniająca.
Kluczowym elementem gry jest Timing Timing Timing!!!
Logika sterowania w grze nie jest skomplikowana, na telefonie są tylko dwa przyciski kierunkowe i jeden przycisk do strzelania pajęczyną, a na komputerze wystarczą klawisze WAD. Jednak aby naprawdę dobrze grać w tę grę, kluczowe jest opanowanie rytmu silnika fizycznego. Kiedy puścić pajęczynę, a kiedy ją ponownie chwycić – jeśli opanujesz ten timing, będziesz mógł lecieć w powietrzu daleko i stabilnie.
Ciekawe jest to, że za każdym razem, gdy poprawisz swój osobisty rekord, system automatycznie generuje specjalną kartę wyników. Ta karta nie jest przypadkowa, ale w zależności od twojego wyniku odblokowuje różne rzadkości postaci. Im wyższy wynik, tym postać jest rzadsza, ten design rzeczywiście motywuje do ciągłego poprawiania rekordów.
Teraz organizują dwudniową akcję, a zasady są bardzo proste. Wystarczy, że opublikujesz swoją kartę wyników na Twitterze, oznaczysz @OpenledgerHQ i dodasz hashtag #iloveplayingoctoman. Widać, że chcą, aby gracze naprawdę się zaangażowali.
Z perspektywy projektowania produktu, Octoman jest całkiem sprytny. Gra sama w sobie jest wystarczająco prosta, każdy może w nią zagrać, ale aby dobrze grać, potrzebna jest praktyka i umiejętności. System kart wyników daje graczom powód do chwalenia się, a media społecznościowe mogą przyciągnąć nowych użytkowników.
Sam zagrałem trochę i zdobyłem 551 punktów. Od razu dostałem małego ninja ośmiornicę! To wizualnie idealnie pasuje do mojego awatara. Nie planuję już poprawiać wyniku, zostawię to tak. Uwielbiam to!!!

22,68K
Reddit oficjalnie zablokował Internet Archive przed zbieraniem treści do treningu AI. Na pierwszy rzut oka to standardowa operacja mająca na celu ochronę danych platformy, ale w rzeczywistości odzwierciedla to fundamentalny problem całego modelu ekonomicznego AI.
Obecna sytuacja polega na tym, że firmy AI potrzebują ogromnych ilości wysokiej jakości danych do trenowania modeli, ale platformy z treściami i twórcy nie otrzymują z tego procesu żadnej nagrody. Treści, które twórcy ciężko stworzyli, są bezpłatnie wykorzystywane przez firmy AI do treningu, a następnie duże firmy zarabiają na wytrenowanych modelach, podczas gdy twórcy nie dostają ani grosza.
Coraz więcej platform zaczyna stawiać bariery, a zablokowanie Internet Archive przez Reddit to tylko początek. Problem polega na tym, że proste zablokowanie nie rozwiązuje podstawowego problemu; jedynie ogranicza dostęp, nie ustanawiając rozsądnego mechanizmu autoryzacji i podziału zysków.
Naprawdę potrzebna jest infrastruktura, która pozwoli na egzekwowanie warunków użytkowania, praw własności i opłat licencyjnych na poziomie projektowania.
Camp zaproponował nową drogę: zamiast blokować, lepiej jest w inny sposób zaprojektować zasady korzystania z danych do treningu AI. Kluczowa logika jest w rzeczywistości bardzo prosta:
1️⃣ Treści rejestrowane są na łańcuchu, z dowodem pochodzenia
2️⃣ Twórcy sami definiują warunki licencji
3️⃣ Jeśli AI chce korzystać, musi płacić
4️⃣ Opłaty licencyjne automatycznie wracają do twórców
Podstawowa logika: zamiast blokować AI przed korzystaniem z treści, lepiej jest zharmonizować interesy wszystkich stron. Firmy AI potrzebują danych, twórcy potrzebują dochodów, platformy potrzebują wartości ekosystemu, wszyscy biorą to, czego potrzebują.
Obecnie na @campnetworkxyz zarejestrowano już ponad 1,5 miliona dzieł, nie tylko zdjęć, muzyki, ale także filmów, treści narracyjnych itd., co stało się zdecentralizowaną bazą danych IP. Dla modeli AI dostarcza to legalne, zrównoważone i skalowalne źródło danych. Dla twórców to w końcu sposób, aby nie być już wykorzystywanym za darmo.

35,98K
Współpraca IQ AI i NEAR opiera się na kluczowej logice, która pozwala agentom AI na samodzielne działanie w różnych łańcuchach bez potrzeby interwencji człowieka.
Z technicznego punktu widzenia, prędkość 600 ms w przypadku NEARProtocol oraz 1,2 sekundy na potwierdzenie jest rzeczywiście wystarczająco szybka. Dla agentów AI im krótszy czas oczekiwania, tym lepiej, ponieważ prędkość podejmowania decyzji przez AI jest z natury szybsza niż u ludzi. Jeśli jednak muszą czekać na wykonanie, to cała efektywność staje się względnie opóźniona. Obecnie ta prędkość pozwala na praktycznie natychmiastową reakcję.
Wcześniejsze operacje między łańcuchami były już wystarczająco skomplikowane dla zwykłych użytkowników, nie mówiąc już o tym, aby agenci AI zajmowali się różnymi logikami mostów. Teraz, dzięki bezpośredniej integracji w zestawie narzędzi deweloperskich, agenci AI mogą samodzielnie przeprowadzać operacje między łańcuchami, co w nieświadomy sposób obniża próg wejścia.
Z perspektywy strategicznej, jest to walka o pozycję infrastrukturalną w gospodarce AI. Obecnie popularność agentów AI rośnie, ale wciąż jest niewiele infrastruktur, które pozwalają agentom AI na bezpośredni dostęp do warstwy transakcyjnej i uczestnictwo w działalności gospodarczej na łańcuchu. Dzięki tej współpracy NEAR umocnił swoją pozycję jako infrastruktura L1 dla sztucznej inteligencji i agentów.
W rzeczywistości potrzeby agentów AI różnią się od potrzeb użytkowników. Ludzie mogą tolerować skomplikowane procesy operacyjne, mogą czekać na czas potwierdzenia, mogą ręcznie radzić sobie z różnymi sytuacjami awaryjnymi. Jednak agenci AI potrzebują znormalizowanego, zautomatyzowanego i wydajnego środowiska wykonawczego.
Z perspektywy zastosowań, wykonywanie transakcji między łańcuchami jest rzeczywiście bardzo praktyczne. Jeśli agenci AI mogą jednocześnie monitorować możliwości arbitrażu na wielu łańcuchach, a po wykryciu okazji automatycznie przeprowadzać arbitraż między łańcuchami, cały proces nie wymaga udziału użytkownika, co oznacza, że możliwości arbitrażu są znacznie większe niż operacje samego użytkownika. Jeśli jednocześnie można uwzględnić współpracę wielu agentów, może to przynieść jeszcze większą wartość.
Dla NEAR jest to doskonała różnicująca pozycja. W czasach, gdy wiele L1 rywalizuje o TPS i ekosystem, współpraca z @IQAICOM, skoncentrowana na tym wąskim obszarze agentów AI, ma sens, a wczesne gromadzenie podstaw jest istotne dla przyszłości.


NEAR Protocol13 sie, 21:06
Tokenizowane agenty AI to już nie science fiction. Nowa integracja @IQAICOM z NEAR odblokowuje autonomiczne działania między łańcuchami, które są szybkie, ostateczne i bezpieczne.
Tak wygląda działanie Abstrakcji Łańcucha.
7,3K
Właśnie zobaczyłem, że @boundless_xyz wczoraj opublikował szczegółowe wprowadzenie do ZK Coin. Jako osoba, która od dłuższego czasu śledzi ten projekt, uważam, że jest to dość interesujące. W końcu chcą stworzyć uniwersalną infrastrukturę dla dowodów ZK.
Przede wszystkim projekt Boundless. W zasadzie zajmuje się tworzeniem uniwersalnego protokołu dowodów ZK, aby wszystkie blockchainy mogły korzystać z możliwości ZK. Jeśli każda sieć miałaby budować własny system dowodów ZK, byłoby to kosztowne i nieefektywne. Boundless oferuje usługi dowodów ZK dla różnych sieci poprzez niezależną sieć węzłów dowodowych. Można to również prosto zrozumieć jako outsourcing obliczeń.
Metoda skalowania jest znacznie prostsza i bardziej bezpośrednia niż tradycyjne rozwiązania oparte na shardach czy layer2, polega na zwiększeniu liczby węzłów, aby poprawić przepustowość całej sieci.
ZK Coin jako natywny token tego systemu nie jest czysto tokenem do zarządzania. Każde żądanie dowodu wymaga stakowania ZKC jako zabezpieczenia, a to przynajmniej 10 razy większego niż maksymalna opłata. Oznacza to, że wraz ze wzrostem wykorzystania sieci, zablokowane ZKC również wzrośnie, co bezpośrednio zmniejszy podaż w obiegu.
Jest też mechanizm PoVW (Proof of Verifiable Work), który zasadniczo pozwala węzłom dowodowym na wydobywanie ZKC poprzez generowanie dowodów ZK. Aby uczestniczyć w wydobywaniu, należy najpierw stakować określoną ilość ZKC. Tworzy to pozytywną pętlę: większe zapotrzebowanie na dowody → więcej ZKC stakowanych → lepsze zachęty wydajnościowe → więcej węzłów uczestniczących.
Z punktu widzenia alokacji tokenów, 49% przeznaczone jest na rozwój ekosystemu. Ale przyglądając się logice alokacji, 31% funduszu ekosystemu jest głównie przeznaczone na trzy kierunki: finansowanie aplikacji weryfikowalnych, integrację protokołów i narzędzia deweloperskie, utrzymanie protokołów i rozwój infrastruktury. 18% funduszu strategicznego wzrostu jest specjalnie skierowane na integrację z przedsiębiorstwami i węzły dowodowe na poziomie instytucjonalnym. Taki sposób alokacji pokazuje, że naprawdę budują ekosystem.
Zespół i wczesni współpracownicy otrzymują 23,5%, z czego 3,5% jest specjalnie przeznaczone dla RISC Zero na przyszłe rekrutacje i badania. Ten szczegół pokazuje, że Boundless i RISC Zero mają głęboką relację, a RISC Zero ma rzeczywiście spore osiągnięcia w dziedzinie zkVM.
Sprzedaż tokenów dla społeczności i airdropy stanowią tylko 6%, co nie jest wysokim odsetkiem. Jednak biorąc pod uwagę, że jest to projekt infrastrukturalny, ten odsetek wydaje się rozsądny. Tylko nie wiadomo, ile Yapper dostanie później.
Alokacja dla inwestorów wynosi 21,5%, mechanizm lock-up jest taki sam jak dla zespołu, 1 rok cliff, a następnie 2 lata liniowego uwalniania. Taki projekt zapewnia, że wczesni inwestorzy i zespół mają powiązane interesy, co zapobiega sytuacji, w której po uruchomieniu następuje załamanie cen.
Mechanizm inflacji wynosi w pierwszym roku 7%, a następnie stopniowo spada do 3% od ósmego roku. Kluczowe jest to, że każde żądanie dowodu wymaga stakowania ZKC, co sprawia, że rzeczywista podaż w obiegu będzie malała wraz ze wzrostem wykorzystania sieci. Dodatkowo, 50% stakowanych tokenów, które zostaną zredukowane, zostanie bezpośrednio zniszczone, co tworzy równowagę między inflacją a deflacją.
Osobiście widzę dwa kluczowe punkty w @boundless_xyz:
1️⃣ To nie jest ZK przeznaczone dla konkretnego łańcucha, ale naprawdę chcą stworzyć uniwersalną infrastrukturę ZK dla wszystkich łańcuchów. Wybrany kierunek jest rzeczywiście niezbędny, technologia ZK w obszarze blockchain tylko się rozszerzy i stanie się niezbędnym fundamentem.
2️⃣ Projekt tokena jest bezpośrednio powiązany z potrzebami biznesowymi. Im więcej dowodów, tym więcej ZKC jest zablokowanych, a zapotrzebowanie na tokeny jest liniowo związane z wykorzystaniem sieci.
@TinaLiu333 @RiscZeroCN



46,11K
Wczoraj zobaczyłem porównanie dwóch zestawów danych, które wydają się dość interesujące. Chciałem się nimi z wami podzielić. To dane z Story i Camp, chociaż wiem, że to porównanie może nie być szczególnie dokładne, w końcu jedna to główna sieć, a druga to sieć testowa, ale wyniki Camp naprawdę wyglądają całkiem dobrze.
1️⃣ Dane Story Protocol
7600000 bloków
43700000 transakcji
4000000 adresów
192000 transakcji dziennie
Czas blokowania: 2,4 sekundy
2️⃣ Dane sieci testowej Camp
16200000 bloków
84900000 transakcji
6600000 adresów
842000 transakcji dziennie
Czas blokowania: 0,9 sekundy
Z danych wynika, że @campnetworkxyz w fazie testowej już w wielu wymiarach przewyższył wyniki głównej sieci Story. Liczba bloków jest ponad dwa razy większa, wolumen transakcji bliski dwukrotności, a liczba adresów również ma wyraźną przewagę, a dzienny wolumen transakcji osiągnął ponad czterokrotność Story.
Story dopiero co uruchomiło główną sieć, podczas gdy Camp wciąż jest w fazie testowej, więc podejście i zachowania użytkowników na pewno się różnią. Użytkownicy sieci testowej mogą być bardziej skłonni do częstych interakcji, ponieważ nie ma presji związanej z opłatami za gaz. Ale te liczby odzwierciedlają aktywność użytkowników i zdolność sieci do przetwarzania, co jest dość przekonujące.
Architektura @campnetworkxyz w porównaniu wydaje się mieć pewne unikalne cechy. Protokół Proof of Provenance nie tylko zajmuje się prawami do IP, ale bardziej przypomina budowanie systemu wymiany wartości między AI a twórcami. Użytkownicy mogą rejestrować swoje treści jako IP, a gdy AI wykorzystuje te dane do treningu lub generowania treści, twórcy mogą otrzymywać odpowiedni podział zysków.
Ten model w kontekście obecnego dużego zużycia danych treningowych przez AI ma rzeczywiście swoją unikalną wartość. Szczególnie w miarę jak wysokiej jakości dane treningowe stają się coraz bardziej deficytowe, mechanizm Camp, który zachęca użytkowników do aktywnego wkładu danych i otrzymywania za to nagród, może stać się jeszcze ważniejszy.
Z technicznego punktu widzenia, czas blokowania Camp wynoszący 0,9 sekundy jest rzeczywiście znacznie szybszy niż 2,4 sekundy w Story. Ta przewaga wydajności będzie bardzo przydatna przy przetwarzaniu dużej liczby rejestracji IP i transakcji licencyjnych. Ponadto wspierają rejestrację IP bez opłat za gaz, co obniża próg wejścia dla zwykłych użytkowników.
Camp wciąż jest w fazie testowej, ale na podstawie tych wyników danych, po uruchomieniu głównej sieci, z pewnością będzie to projekt wart uwagi. Szczególnie w kierunku połączenia AI i IP, czekam na przełom Camp.


35,89K
Najlepsze
Ranking
Ulubione
Trendy onchain
Trendy na X
Niedawne największe finansowanie
Najbardziej godne uwagi