Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Podczas konferencji CES nowa architektura Rubin firmy NVIDIA stała się głównym tematem dyskusji na rynku, co jest kolejnym znaczącym przełomem obok architektury MOE, zaprojektowanym z myślą o erze Agentic AI itd. Zgłębiłem temat i rzeczywiście poczułem smak "autorewolucji" starego Huang:
1) W przeszłości NVIDIA polegała na przewadze sprzętowej GPU, korzystając z okresu, w którym wielkie firmy AI szalały na zakupach mocy obliczeniowej do trenowania dużych modeli. Wtedy logika była prosta: kto ma więcej kart graficznych, ten może wytrenować najlepszy model.
Jednak teraz wojna AI przeniosła się z pola "mocy obliczeniowej" na "wnioskowanie", szczególnie po nadejściu ery Agentic, w której AI musi przetwarzać wnioskowanie o wysokiej częstotliwości, wieloetapowe i o bardzo długim kontekście.
W tym momencie parametry modelu sięgają bilionów, a przepustowość danych jest ogromna. GPU może obliczać bardzo szybko, ale jeśli pamięć nie przesyła danych wystarczająco szybko, GPU będzie musiał czekać, co nazywamy "ścianą pamięci". Innymi słowy, posiadanie wielu kart graficznych już nie rozwiązuje problemu, potrzebna jest również wysoka pamięć i przepustowość, aby to wspierać. Rubin ma rozwiązać ten problem.
2) Dlatego Rubin wprowadza HBM4, który obsługuje czwartą generację pamięci o wysokiej przepustowości, co pozwala osiągnąć przepustowość 22 TB/s. Ale kluczowe jest to, że współpracuje z technologią NVLink 6 (przepustowość w obrębie szafy 260 TB/s), co logicznie przekształca 72 karty w "jedną ogromną chipę".
Co to oznacza? Kiedyś kupując kartę graficzną, kupowałeś pojedyncze komponenty, a dane między kartami przesyłały się jak przesyłki przechodzące przez kilka punktów przesiadkowych. Teraz Rubin dzięki bardzo gęstym połączeniom sprawia, że dane przepływają między różnymi GPU prawie bez odczuwania fizycznej odległości, 72 pracowników nie pracuje już osobno, ale dzieli się jednym mózgiem.
Myślę, że to jest prawdziwy atut Rubina: nie chodzi tylko o gromadzenie parametrów sprzętowych, ale o rekonstrukcję przepływu danych w całym systemie.
3) Jeśli MOE (architektura mieszanych ekspertów) była wymiarem uderzenia w model biznesowy NVIDIA, który został zdominowany przez takie firmy jak DeepSeek, to Rubin jest strategiczną kontrą starego Huanga, nie porównując się z wami, kto oszczędza więcej kart, ale bezpośrednio rekonstruując koszty użycia AI. Oczywiście, ta niezwykła strategia oznacza również, że NVIDIA musi całkowicie pożegnać się z przestarzałym modelem "agresywnego gromadzenia kart".
Stary Huang ma na uwadze inną kalkulację: aby era Agentic naprawdę zagościła w różnych branżach, musi przejść przez barierę kosztów tokenów, co jest nieuchronnym trendem, którego NVIDIA nie może zatrzymać.
W oczach starego Huanga, zamiast czekać, aż Google, Meta i inne duże firmy zjedzą rynek swoimi chipami, lub być zdominowanym przez DeepSeek i inne, które zrewolucjonizują rynek po stronie podaży, lepiej być tym, który przełamuje impas.
4) Pojawia się pytanie, jak NVIDIA po autorewolucji ma się odnaleźć? Ścieżka jest jasna: z "sprzedaży kart graficznych" na "sprzedaż systemów", z obsługi niewielu dużych firm do rzeczywistego upowszechnienia AI.
Kiedyś kupując H100, NVIDIA zarabiała tylko na sprzedaży kart graficznych, a przyszły Rubin powie ci: musisz kupić cały system NVL72 - 72 GPU, przełącznik NVLink, system chłodzenia cieczą, szafę, a nawet odpowiedni stos oprogramowania, wszystko zapakowane i sprzedane razem.
Stary Huang ma również jasny plan: wygląda na to, że koszt sprzętu po zapakowaniu jest wyższy, ale dodaje ekstremalną efektywność wnioskowania, co obniża jednostkowy koszt użycia AI dla nabywców, więc naturalnie nie straci udziału w rynku.
Ale, ale, ale, ten model staje się również wyższą barierą dla małych i średnich graczy. Tylko duże firmy i dostawcy usług chmurowych będą mogli sobie na to pozwolić, co jeszcze bardziej zaostrzy monopol na moc obliczeniową. W obecnej sytuacji konkurencyjnej to prawdziwe ryzyko, ponieważ jeśli produkcja HBM4 napotka problemy, AMD, Google TPU i inne mogą wykorzystać okno czasowe, aby wprowadzić alternatywne rozwiązania, a marzenia NVIDIA o sprzedaży systemów mogą nie być tak łatwe do zrealizowania.
Najlepsze
Ranking
Ulubione
