Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Haotian | CryptoInsight
Niezależny badacz | Doradca @ambergroup_io | Specjalny badacz @IOSGVC| Hardkorowa nauka | Poprzednio:@peckshield | Wiadomości prywatne dla Collab| Społeczność jest otwarta tylko dla subskrybentów Twittera
Naprawdę nie mam słów, moje drugie konto Claude zostało znowu bez powodu zablokowane w ciągu tygodnia.
Ale szczerze mówiąc, tym razem nie czuję żadnych emocji, a nawet mam ochotę się śmiać. Dlaczego?
Ponieważ już dawno zrozumiałem podstawową logikę tych bezsensownych blokad, a także mam w ręku lepszą strategię radzenia sobie. Szczególnie po miesiącu pracy w kierunku Vibe Coding, zbudowałem dojrzały system myślenia o zarządzaniu AI, który pozwala mi spokojnie stawić czoła takim nagłym "zdarzeniom".
Najpierw powiem o przyczynach, oczywiste przyczyny są jasne: to tylko częste zmiany węzłów VPN, które uruchamiają kontrolę ryzyka w innym miejscu, lub niezgodność miejsca płatności karty Visa z adresem IP terminala, co wywołuje ostrzeżenie o bezpieczeństwie, albo krótkoterminowe, częste zużycie tokenów, które system po prostu i brutalnie klasyfikuje jako złośliwego bota.
Ale głęboka przyczyna jest jedna: @claudeai to usługa SaaS na poziomie przedsiębiorstw. Interesują ich tacy klienci jak pięćset największych firm na świecie, a my, jako intensywnie korzystający z wersji webowej użytkownicy Pro czy Max, nie interesujemy ich wcale, a wręcz są postrzegani jako niekontrolowane czynniki ryzyka.
Dlatego nie ma sensu ciągle się martwić o problem z zablokowanym kontem. Najważniejsza lekcja, jaką nauczyła mnie AI, to: nigdy nie wiąż swojej kluczowej siły produkcyjnej z ekstremalnie niestabilnym kontem webowym.
W rzeczywistości prawdziwe rozwiązanie polega na zbudowaniu systemu lokalnych usług AI, który nie jest związany z modelem:
1) Użyj OpenRouter/Antigravity, aby zrealizować dostęp do modelu, obniżając Claude do podstawowego silnika wnioskowania, który można w każdej chwili przełączyć, aby uniknąć zablokowania;
2) Użyj zewnętrznego API, aby wyposażyć Claude Code + Skills + Cowork w nową logikę interakcji, rezygnując z najbardziej niekontrolowanej metody interakcji, jaką jest frontend webowy, nie martwiąc się o utratę danych związanych z konfiguracją Prompt/Instructions spowodowaną zablokowaniem, pozwalając AI na osiedlenie się w twoim systemie plików i świadczenie usług;
3) Bezpośrednio odczytuj lokalną bazę kodu za pomocą protokołu MCP, w połączeniu z Local RAG (lokalne wzmacnianie wyszukiwania), aby w czasie rzeczywistym wywoływać swoją prywatną bazę wiedzy, a nawet automatycznie wykonywać testy, zatwierdzenia Git i cykle naprawy błędów w terminalu.
Podsumowując, w jednym zdaniu, porzuć model korzystania z AI oparty na "wynajmie w chmurze", aktywnie przejmij "lokalną suwerenność", a to będzie ostateczna forma Vibe Coding.
743
Podczas konferencji CES nowa architektura Rubin firmy NVIDIA stała się głównym tematem dyskusji na rynku, co jest kolejnym znaczącym przełomem obok architektury MOE, zaprojektowanym z myślą o erze Agentic AI itd. Zgłębiłem temat i rzeczywiście poczułem smak "autorewolucji" starego Huang:
1) W przeszłości NVIDIA polegała na przewadze sprzętowej GPU, korzystając z okresu, w którym wielkie firmy AI szalały na zakupach mocy obliczeniowej do trenowania dużych modeli. Wtedy logika była prosta: kto ma więcej kart graficznych, ten może wytrenować najlepszy model.
Jednak teraz wojna AI przeniosła się z pola "mocy obliczeniowej" na "wnioskowanie", szczególnie po nadejściu ery Agentic, w której AI musi przetwarzać wnioskowanie o wysokiej częstotliwości, wieloetapowe i o bardzo długim kontekście.
W tym momencie parametry modelu sięgają bilionów, a przepustowość danych jest ogromna. GPU może obliczać bardzo szybko, ale jeśli pamięć nie przesyła danych wystarczająco szybko, GPU będzie musiał czekać, co nazywamy "ścianą pamięci". Innymi słowy, posiadanie wielu kart graficznych już nie rozwiązuje problemu, potrzebna jest również wysoka pamięć i przepustowość, aby to wspierać. Rubin ma rozwiązać ten problem.
2) Dlatego Rubin wprowadza HBM4, który obsługuje czwartą generację pamięci o wysokiej przepustowości, co pozwala osiągnąć przepustowość 22 TB/s. Ale kluczowe jest to, że współpracuje z technologią NVLink 6 (przepustowość w obrębie szafy 260 TB/s), co logicznie przekształca 72 karty w "jedną ogromną chipę".
Co to oznacza? Kiedyś kupując kartę graficzną, kupowałeś pojedyncze komponenty, a dane między kartami przesyłały się jak przesyłki przechodzące przez kilka punktów przesiadkowych. Teraz Rubin dzięki bardzo gęstym połączeniom sprawia, że dane przepływają między różnymi GPU prawie bez odczuwania fizycznej odległości, 72 pracowników nie pracuje już osobno, ale dzieli się jednym mózgiem.
Myślę, że to jest prawdziwy atut Rubina: nie chodzi tylko o gromadzenie parametrów sprzętowych, ale o rekonstrukcję przepływu danych w całym systemie.
3) Jeśli MOE (architektura mieszanych ekspertów) była wymiarem uderzenia w model biznesowy NVIDIA, który został zdominowany przez takie firmy jak DeepSeek, to Rubin jest strategiczną kontrą starego Huanga, nie porównując się z wami, kto oszczędza więcej kart, ale bezpośrednio rekonstruując koszty użycia AI. Oczywiście, ta niezwykła strategia oznacza również, że NVIDIA musi całkowicie pożegnać się z przestarzałym modelem "agresywnego gromadzenia kart".
Stary Huang ma na uwadze inną kalkulację: aby era Agentic naprawdę zagościła w różnych branżach, musi przejść przez barierę kosztów tokenów, co jest nieuchronnym trendem, którego NVIDIA nie może zatrzymać.
W oczach starego Huanga, zamiast czekać, aż Google, Meta i inne duże firmy zjedzą rynek swoimi chipami, lub być zdominowanym przez DeepSeek i inne, które zrewolucjonizują rynek po stronie podaży, lepiej być tym, który przełamuje impas.
4) Pojawia się pytanie, jak NVIDIA po autorewolucji ma się odnaleźć? Ścieżka jest jasna: z "sprzedaży kart graficznych" na "sprzedaż systemów", z obsługi niewielu dużych firm do rzeczywistego upowszechnienia AI.
Kiedyś kupując H100, NVIDIA zarabiała tylko na sprzedaży kart graficznych, a przyszły Rubin powie ci: musisz kupić cały system NVL72 - 72 GPU, przełącznik NVLink, system chłodzenia cieczą, szafę, a nawet odpowiedni stos oprogramowania, wszystko zapakowane i sprzedane razem.
Stary Huang ma również jasny plan: wygląda na to, że koszt sprzętu po zapakowaniu jest wyższy, ale dodaje ekstremalną efektywność wnioskowania, co obniża jednostkowy koszt użycia AI dla nabywców, więc naturalnie nie straci udziału w rynku.
Ale, ale, ale, ten model staje się również wyższą barierą dla małych i średnich graczy. Tylko duże firmy i dostawcy usług chmurowych będą mogli sobie na to pozwolić, co jeszcze bardziej zaostrzy monopol na moc obliczeniową. W obecnej sytuacji konkurencyjnej to prawdziwe ryzyko, ponieważ jeśli produkcja HBM4 napotka problemy, AMD, Google TPU i inne mogą wykorzystać okno czasowe, aby wprowadzić alternatywne rozwiązania, a marzenia NVIDIA o sprzedaży systemów mogą nie być tak łatwe do zrealizowania.
910
W końcu, @KaitoAI został zniszczony przez Elona, Kaito nigdy by nie pomyślał, że w końcu zabije go jego duma – „korona AI”. Skąd to się wzięło?
Wczoraj, szef produktu X, @nikitabier, oficjalnie ogłosił, że całkowicie zablokuje dostęp do API protokołu InfoFi dla tych, którzy tworzą AI śmieci (Spam) w celu zdobycia punktów.
A ten cios bezpośrednio uderza w to, co wielu ludziom nie pozwalało się odezwać, a co reklamowało infoFi – $KAITO?
1) Sukces i porażka w „parazytowaniu”
Początkowa narracja Kaito była bardzo atrakcyjna, wykorzystując AI do porządkowania danych na X i tokenizując je (Yaps), a następnie wprowadzając mechanizm motywacyjny. W ten sposób platforma X stała się kopalnią dla wielu graczy, którzy chcieli zdobywać punkty, a przez chwilę była na szczycie. Ale ta logika Kaito ma jeden śmiertelny błąd: jego podstawowe aktywa „danych” nie należą do niego.
Mówiąc wprost, obecny system punktów Yaps Kaito jest zasadniczo „parazytującym” protokołem opartym na scentralizowanym źródle danych X.
Na początku, w wczesnym etapie AI, X musiał również karmić dane, musiał się komercjalizować, @elonmusk przymykał oko na działania protokołów AI takich jak Kaito, które korzystały z jego danych do wydawania tokenów, ale gdy Gemini zostało całkowicie zintegrowane z Gmail Drive, Elon nie mógł już dłużej milczeć, jak można spać obok kogoś, kto śpi na twoim łóżku?
2) Zanieczyszczone źródło Grok
Musimy dostrzec jeden fakt, musimy dostrzec jeden fakt: X nie jest już tylko prostą platformą społecznościową, ale najważniejszym „prywatnym polem danych” do trenowania dużego modelu Grok w xAI. W wyścigu zbrojeń z gigantami AI takimi jak Google i OpenAI, jedyną obroną X jest „najbardziej aktualne i żywe ludzkie myślenie na świecie”.
Jednak protokoły InfoFi takie jak Kaito, które mają mechanizmy motywacyjne (Yaps), obiektywnie stały się „źródłem zanieczyszczenia” ekosystemu X, ponieważ w celu zdobycia punktów, wiele botów i studiów wykorzystuje AI do generowania tysiąca identycznych śmieciowych komentarzy i fałszywych interakcji.
Jak Elon może pozwolić, aby Grok w jego własnym podwórku dostawał takie „syntetyczne dane” i hałas śmieciowy, tym bardziej, że ta fałszywość sprawiła, że wiele „prawdziwych” osób nie chce już wchodzić w interakcje. Nie ma wątpliwości, że aby chronić cenne środowisko produkcji danych X, Elon musi wyeliminować te „parazytujące protokoły”, które tworzą fałszywy dobrobyt.
3) Czy wartość Yaps wzrośnie?
W krótkim okresie, Kaito stracił „boską perspektywę” automatycznego zbierania danych z całej sieci, co z pewnością doprowadzi do spirali śmierci, ale w dłuższym okresie, może to być przymusowa „de-bąblizacja”?
To zmusza Kaito do stworzenia mechanizmu selekcji wartości odpornego na czarownice.
Kaito ostatecznie nie ma innego wyjścia, jak tylko skierować motywację Yaps w stronę prawdziwych użytkowników, w stronę wysokiej jakości treści, co od początku było jego kierunkiem wartości. Na razie nie wiadomo, jaką alternatywną metodę zastąpienia wprowadzi, być może użytkownicy będą musieli aktywnie przesyłać treści, a społeczność DAO będzie je weryfikować? I tak dalej.
Pozornie zwiększa to progi i koszty weryfikacji i nagród, ale jako projekt infoFi o wartości 500-600 milionów dolarów, nadszedł czas na gruntowne reformy, aby dostosować się do swoich wartości.
To wszystko.
Moim zdaniem, Elon nie działa celowo przeciwko Crypto, X nie pozwoli, aby Grok został zniszczony w wielkiej narracji o wyzwaniu dominacji Google AI, a wszelkie zewnętrzne protokoły, które zakłócają czystość danych i tworzą fałszywy dobrobyt, są skazane na bycie ofiarami.
A dla całej ścieżki InfoFi, los Kaito to tylko początek, każdy protokół oparty na „wyzysku” danych Web2 musi przemyśleć, gdzie jest jego Plan B.

Nikita Bier15 sty, 23:39
Rewizujemy nasze zasady dotyczące API dla deweloperów:
Nie będziemy już pozwalać na aplikacje, które nagradzają użytkowników za publikowanie na X (znanym również jako „infofi”). Doprowadziło to do ogromnej ilości niechcianych treści AI i spamu w odpowiedziach na platformie.
Odebraliśmy dostęp do API tym aplikacjom, więc Twoje doświadczenia na X powinny wkrótce się poprawić (gdy boty zrozumieją, że już nie dostają zapłaty).
Jeśli Twoje konto dewelopera zostało rozwiązane, skontaktuj się z nami, a pomożemy w przejściu Twojego biznesu na Threads i Bluesky.
1,19K
Najlepsze
Ranking
Ulubione
