Jensen vám právě řekl, že DRAM je riziko pro národní bezpečnost a nikdo nepřeceňuje expozici dodavatelského řetězce Nvidie. Většina lidí si myslí, že se stalo toto: Nvidia koupila Groq za 20 miliard dolarů, aby rozšířila oblast do oblasti inference. Skvělý akvizitní zaměstnání, dobrá technologie, jdeme dál. To je špatně. Podívejte se, co se teď skutečně děje na trzích s DRAM. Ceny čipů DDR5 vzrostly ve čtvrtém čtvrtletí 2025 z 6,84 na 27,20 USD. To je čtyřnásobné zvýšení za tři měsíce. Samsung právě zvýšil ceny smluv o 100 %. Kingston zavádí týdenní dvouciferné zvyšování. Výrobci PC teď dodávají stolní počítače bez RAM, protože ji doslova nemohou sehnat. Proč? HBM pro AI datová centra. Samsung, SK Hynix a Micron přealokovaly kapacitu waferů HBM třikrát rychleji než standardní DRAM. Dodavatelský řetězec AI kanibalizuje paměť spotřebitelů a úleva nebude dříve než v roce 2027, protože nové továrny se staví 4–5 let. Nvidia GPU jsou náročné na HBM. Každý H100 obsahuje 80GB HBM3. Každý systém B200 vyžaduje ještě víc. A HBM se skládá z několika DRAM čipů složených dohromady a velmi složité výroby. Trojnásobné zvýšení cen DRAM neovlivňuje jen stavitele PC. Přímo to ovlivňuje náklady na GPU a výrobní kapacitu Nvidie. LPU Groqa nepoužívají žádný HBM. Nula. Běží zcela na 230MB integrované SRAM na procesor. Šířka pásma SRAM dosahuje 80 TB/s oproti 8 TB/s u HBM. Čipy vůbec nepotřebují externí paměť. Každé závaží je přímo na křemíku. Tato architektura se zdála být omezením, když byla DRAM levná. Pro provoz modelu s parametry 70B potřebujete stovky čipů Groq propojených dohromady, protože každý čip má velmi málo paměti. Výpočty v měřítku racku. Složité propojení. Kapitálově náročné. Ale když se DRAM zvýší čtyřnásobně za čtvrtletí a zásoba HBM se stane závazným omezením pro celou AI sestavu, toto "omezení" se obrátí v výhodu. LPU od Groq je vyráběno na 14nm křemíku. Starobylé podle polovodičových měřítek. Žádná závislost na špičkových uzlech TSMC. Žádná závislost na třech firmách, které kontrolují 90 %+ produkce DRAM. Jensen utratil 20 miliard dolarů na zajištění nejnebezpečnějšího rizika Nvidie v dodavatelském řetězci. Pokud HBM zůstane vzácný a drahý, vlastní nyní inferenční architekturu, která toto omezení zcela obchází. Pokud se HBM normalizuje, přijde o 20 miliard dolarů na firmě, která byla před třemi měsíci oceněna na 6,9 miliardy. Cenová prémie vám řekne Jensenův odhad pravděpodobnosti. Za únikový poklop zaplatil téměř trojnásobek předchozího ocenění. A pokud to něco znamená, TrendForce předpovídá, že nedostatek paměti potrvá až do prvního čtvrtletí 2026 a dále. Samsung, SK Hynix a Micron si užívají provozní marže 40–60 % a nemají žádnou motivaci zaplavit trh. Oligopol se chová přesně jako oligopol. Otázka, kterou si nikdo neklade: pokud ten, kdo prodává nejvíce AI čipů, právě utratil 20 miliard dolarů za architekturu, která nepoužívá DRAM, co ví o HBM dodávce, co my ne?