Jensen właśnie powiedział, że DRAM jest zagrożeniem dla bezpieczeństwa narodowego, a nikt nie przelicza ekspozycji łańcucha dostaw Nvidii. Oto, co myśli większość ludzi: Nvidia kupiła Groq za 20 miliardów dolarów, aby rozszerzyć się na inferencję. Fajny zakup, dobra technologia, idziemy dalej. To nieprawda. Spójrz na to, co dzieje się obecnie na rynkach DRAM. Ceny chipów DDR5 wzrosły z 6,84 USD do 27,20 USD w IV kwartale 2025 roku. To czterokrotny wzrost w ciągu trzech miesięcy. Samsung właśnie podniósł ceny kontraktowe o 100%. Kingston wprowadza tygodniowe podwyżki dwucyfrowe. Producenci komputerów wysyłają teraz komputery stacjonarne bez RAM, ponieważ dosłownie nie mogą go zdobyć. Dlaczego? HBM dla centrów danych AI. Samsung, SK Hynix i Micron przekierowali zdolności produkcyjne wafli do HBM w tempie trzykrotnie szybszym niż standardowy DRAM. Łańcuch dostaw AI kanibalizuje pamięć konsumencką, a ulga nie nadejdzie przed 2027 rokiem, ponieważ nowe fabryki buduje się przez 4-5 lat. GPU Nvidii są bogate w HBM. Każdy H100 ma 80 GB HBM3. Każdy system B200 wymaga jeszcze więcej. A HBM składa się z wielu układów DRAM ułożonych razem w bardzo skomplikowanym procesie produkcji. Potrojenie cen DRAM nie wpływa tylko na budowniczych komputerów. Bezpośrednio wpływa na koszty GPU Nvidii i zdolności produkcyjne. LPUs Groq nie używają HBM. Zero. Działają całkowicie na 230 MB SRAM na procesor. Przepustowość SRAM osiąga 80 TB/s w porównaniu do 8 TB/s HBM. Chipy nie potrzebują zewnętrznej pamięci wcale. Każda waga znajduje się bezpośrednio na krzemie. Ta architektura wydawała się ograniczeniem, gdy DRAM był tani. Potrzebujesz setek chipów Groq połączonych razem, aby uruchomić model o 70 miliardach parametrów, ponieważ każdy chip ma tak mało pamięci. Obliczenia w skali szaf rackowych. Skomplikowane połączenia. Wysokie koszty kapitałowe. Ale gdy DRAM wzrasta czterokrotnie w kwartale, a podaż HBM staje się ograniczeniem dla całego rozwoju AI, to "ograniczenie" zamienia się w przewagę. LPU Groq jest produkowane na krzemie 14nm. Stare według standardów półprzewodników. Brak zależności od nowoczesnych węzłów TSMC. Brak zależności od trzech firm, które kontrolują ponad 90% produkcji DRAM. Jensen wydał 20 miliardów dolarów, aby zabezpieczyć najbardziej niebezpieczną ekspozycję łańcucha dostaw Nvidii. Jeśli HBM pozostanie rzadkie i drogie, teraz posiada architekturę inferencyjną, która całkowicie omija to ograniczenie. Jeśli HBM się unormuje, straci 20 miliardów dolarów na firmie, która była wyceniana na 6,9 miliarda dolarów trzy miesiące temu. Premia cenowa mówi ci o oszacowaniu prawdopodobieństwa Jensena. Zapłacił prawie 3 razy wyższą wycenę z ostatniej rundy za wyjście awaryjne. I na co warto zwrócić uwagę, TrendForce prognozuje niedobory pamięci, które będą się przedłużać do I kwartału 2026 roku i dalej. Samsung, SK Hynix i Micron cieszą się marżami operacyjnymi na poziomie 40-60% i nie mają żadnej zachęty do zalewania rynku. Oligopol zachowuje się dokładnie jak oligopol. Pytanie, które nikt nie zadaje: jeśli facet, który sprzedaje najwięcej chipów AI, właśnie wydał 20 miliardów dolarów na pozyskanie architektury, która nie używa DRAM, co on wie o podaży HBM, czego my nie wiemy?