Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Haotian | CryptoInsight
Niezależny badacz | Doradca @ambergroup_io | Specjalny badacz @IOSGVC| Hardkorowa nauka | Poprzednio:@peckshield | Wiadomości prywatne dla Collab| Społeczność jest otwarta tylko dla subskrybentów Twittera
#OKX年夜饭 To jest świetnie powiedziane przez @star_okx, trafiając w ból branży w żartobliwy sposób!
Jeśli podstawą Crypto pozostaną tylko "wszystko na jedną kartę", "PVP", "xx życie" i "sto razy bogactwa" związane z kulturą hazardową, to tak naprawdę sami dusimy przyszłość tej branży, a także shortujemy $BTC, które mamy w rękach.
Gdy stablecoiny, RWA, AI+Crypto, DeFi stają się coraz bardziej mainstreamowe, Crypto już dawno przestało być marginalną branżą, którą pogardzają ludzie spoza, a stało się prawdziwie równoległym przemysłem równym tradycyjnym finansom i innym sektorom. Nie można jednocześnie czerpać korzyści z branży, a potem stygmatyzować naszą dawną wiarę niskim "narracją hazardzistów".
Odmówmy samodeprecjacji, Crypto zasługuje na lepszą definicję.
4,48K
Naprawdę nie mam słów, moje drugie konto Claude zostało znowu bez powodu zablokowane w ciągu tygodnia.
Ale szczerze mówiąc, tym razem nie czuję żadnych emocji, a nawet mam ochotę się śmiać. Dlaczego?
Ponieważ już dawno zrozumiałem podstawową logikę tych bezsensownych blokad, a także mam w ręku lepszą strategię radzenia sobie. Szczególnie po miesiącu pracy w kierunku Vibe Coding, zbudowałem dojrzały system myślenia o zarządzaniu AI, który pozwala mi spokojnie stawić czoła takim nagłym "zdarzeniom".
Najpierw powiem o przyczynach, oczywiste przyczyny są jasne: to tylko częste zmiany węzłów VPN, które uruchamiają kontrolę ryzyka w innym miejscu, lub niezgodność miejsca płatności karty Visa z adresem IP terminala, co wywołuje ostrzeżenie o bezpieczeństwie, albo krótkoterminowe, częste zużycie tokenów, które system po prostu i brutalnie klasyfikuje jako złośliwego bota.
Ale głęboka przyczyna jest jedna: @claudeai to usługa SaaS na poziomie przedsiębiorstw. Interesują ich tacy klienci jak pięćset największych firm na świecie, a my, jako intensywnie korzystający z wersji webowej użytkownicy Pro czy Max, nie interesujemy ich wcale, a wręcz są postrzegani jako niekontrolowane czynniki ryzyka.
Dlatego nie ma sensu ciągle się martwić o problem z zablokowanym kontem. Najważniejsza lekcja, jaką nauczyła mnie AI, to: nigdy nie wiąż swojej kluczowej siły produkcyjnej z ekstremalnie niestabilnym kontem webowym.
W rzeczywistości prawdziwe rozwiązanie polega na zbudowaniu systemu lokalnych usług AI, który nie jest związany z modelem:
1) Użyj OpenRouter/Antigravity, aby zrealizować dostęp do modelu, obniżając Claude do podstawowego silnika wnioskowania, który można w każdej chwili przełączyć, aby uniknąć zablokowania;
2) Użyj zewnętrznego API, aby wyposażyć Claude Code + Skills + Cowork w nową logikę interakcji, rezygnując z najbardziej niekontrolowanej metody interakcji, jaką jest frontend webowy, nie martwiąc się o utratę danych związanych z konfiguracją Prompt/Instructions spowodowaną zablokowaniem, pozwalając AI na osiedlenie się w twoim systemie plików i świadczenie usług;
3) Bezpośrednio odczytuj lokalną bazę kodu za pomocą protokołu MCP, w połączeniu z Local RAG (lokalne wzmacnianie wyszukiwania), aby w czasie rzeczywistym wywoływać swoją prywatną bazę wiedzy, a nawet automatycznie wykonywać testy, zatwierdzenia Git i cykle naprawy błędów w terminalu.
Podsumowując, w jednym zdaniu, porzuć model korzystania z AI oparty na "wynajmie w chmurze", aktywnie przejmij "lokalną suwerenność", a to będzie ostateczna forma Vibe Coding.
778
Podczas konferencji CES nowa architektura Rubin firmy NVIDIA stała się głównym tematem dyskusji na rynku, co jest kolejnym znaczącym przełomem obok architektury MOE, zaprojektowanym z myślą o erze Agentic AI itd. Zgłębiłem temat i rzeczywiście poczułem smak "autorewolucji" starego Huang:
1) W przeszłości NVIDIA polegała na przewadze sprzętowej GPU, korzystając z okresu, w którym wielkie firmy AI szalały na zakupach mocy obliczeniowej do trenowania dużych modeli. Wtedy logika była prosta: kto ma więcej kart graficznych, ten może wytrenować najlepszy model.
Jednak teraz wojna AI przeniosła się z pola "mocy obliczeniowej" na "wnioskowanie", szczególnie po nadejściu ery Agentic, w której AI musi przetwarzać wnioskowanie o wysokiej częstotliwości, wieloetapowe i o bardzo długim kontekście.
W tym momencie parametry modelu sięgają bilionów, a przepustowość danych jest ogromna. GPU może obliczać bardzo szybko, ale jeśli pamięć nie przesyła danych wystarczająco szybko, GPU będzie musiał czekać, co nazywamy "ścianą pamięci". Innymi słowy, posiadanie wielu kart graficznych już nie rozwiązuje problemu, potrzebna jest również wysoka pamięć i przepustowość, aby to wspierać. Rubin ma rozwiązać ten problem.
2) Dlatego Rubin wprowadza HBM4, który obsługuje czwartą generację pamięci o wysokiej przepustowości, co pozwala osiągnąć przepustowość 22 TB/s. Ale kluczowe jest to, że współpracuje z technologią NVLink 6 (przepustowość w obrębie szafy 260 TB/s), co logicznie przekształca 72 karty w "jedną ogromną chipę".
Co to oznacza? Kiedyś kupując kartę graficzną, kupowałeś pojedyncze komponenty, a dane między kartami przesyłały się jak przesyłki przechodzące przez kilka punktów przesiadkowych. Teraz Rubin dzięki bardzo gęstym połączeniom sprawia, że dane przepływają między różnymi GPU prawie bez odczuwania fizycznej odległości, 72 pracowników nie pracuje już osobno, ale dzieli się jednym mózgiem.
Myślę, że to jest prawdziwy atut Rubina: nie chodzi tylko o gromadzenie parametrów sprzętowych, ale o rekonstrukcję przepływu danych w całym systemie.
3) Jeśli MOE (architektura mieszanych ekspertów) była wymiarem uderzenia w model biznesowy NVIDIA, który został zdominowany przez takie firmy jak DeepSeek, to Rubin jest strategiczną kontrą starego Huanga, nie porównując się z wami, kto oszczędza więcej kart, ale bezpośrednio rekonstruując koszty użycia AI. Oczywiście, ta niezwykła strategia oznacza również, że NVIDIA musi całkowicie pożegnać się z przestarzałym modelem "agresywnego gromadzenia kart".
Stary Huang ma na uwadze inną kalkulację: aby era Agentic naprawdę zagościła w różnych branżach, musi przejść przez barierę kosztów tokenów, co jest nieuchronnym trendem, którego NVIDIA nie może zatrzymać.
W oczach starego Huanga, zamiast czekać, aż Google, Meta i inne duże firmy zjedzą rynek swoimi chipami, lub być zdominowanym przez DeepSeek i inne, które zrewolucjonizują rynek po stronie podaży, lepiej być tym, który przełamuje impas.
4) Pojawia się pytanie, jak NVIDIA po autorewolucji ma się odnaleźć? Ścieżka jest jasna: z "sprzedaży kart graficznych" na "sprzedaż systemów", z obsługi niewielu dużych firm do rzeczywistego upowszechnienia AI.
Kiedyś kupując H100, NVIDIA zarabiała tylko na sprzedaży kart graficznych, a przyszły Rubin powie ci: musisz kupić cały system NVL72 - 72 GPU, przełącznik NVLink, system chłodzenia cieczą, szafę, a nawet odpowiedni stos oprogramowania, wszystko zapakowane i sprzedane razem.
Stary Huang ma również jasny plan: wygląda na to, że koszt sprzętu po zapakowaniu jest wyższy, ale dodaje ekstremalną efektywność wnioskowania, co obniża jednostkowy koszt użycia AI dla nabywców, więc naturalnie nie straci udziału w rynku.
Ale, ale, ale, ten model staje się również wyższą barierą dla małych i średnich graczy. Tylko duże firmy i dostawcy usług chmurowych będą mogli sobie na to pozwolić, co jeszcze bardziej zaostrzy monopol na moc obliczeniową. W obecnej sytuacji konkurencyjnej to prawdziwe ryzyko, ponieważ jeśli produkcja HBM4 napotka problemy, AMD, Google TPU i inne mogą wykorzystać okno czasowe, aby wprowadzić alternatywne rozwiązania, a marzenia NVIDIA o sprzedaży systemów mogą nie być tak łatwe do zrealizowania.
949
Najlepsze
Ranking
Ulubione