Jensen tocmai v-a spus că DRAM-ul este un risc pentru securitatea națională și nimeni nu va reevalua expunerea Nvidia în lanțul de aprovizionare. Iată ce cred majoritatea oamenilor că s-a întâmplat: Nvidia a cumpărat Groq pentru 20 de miliarde de dolari ca să extindă în inferență. Acqui-hire cool, tehnologie bună, mergem mai departe. Asta e greșit. Uită-te la ce se întâmplă de fapt pe piețele DRAM în acest moment. Prețurile cipurilor DDR5 au scăzut de la 6,84 dolari la 27,20 dolari în trimestrul 4 al anului 2025. Este o creștere de 4 ori în trei luni. Samsung tocmai a crescut prețurile contractelor cu 100%. Kingston implementează creșteri săptămânale de două cifre. Producătorii de PC-uri trimit acum desktopuri fără RAM pentru că pur și simplu nu pot să o aprovizioneze. De ce? HBM pentru centrele de date AI. Samsung, SK Hynix și Micron au realocat capacitatea de plachete către HBM la o rată de 3 ori mai mare decât DRAM-ul standard. Lanțul de aprovizionare cu AI canibalizează memoria consumatorilor, iar cel mai devreme nu există alinare până în 2027, deoarece fabricile noi durează 4-5 ani să fie construite. GPU-urile Nvidia sunt foarte puternice pentru HBM. Fiecare H100 are 80GB de HBM3. Fiecare sistem B200 necesită și mai mult. Iar HBM constă din mai multe cipuri DRAM suprapuse împreună cu o producție extrem de complexă. Triplata prețurilor DRAM-ului nu afectează doar producătorii de PC-uri. Aceasta alimentează direct costurile GPU-ului Nvidia și capacitatea de producție. LPU-urile Groq nu folosesc zero HBM. Zero. Acestea rulează în întregime pe 230MB SRAM pe cip per procesor. Lățimea de bandă SRAM ajunge la 80 TB/s față de 8 TB/s a HBM. Cipurile nu au nevoie deloc de memorie externă. Fiecare greutate stă direct pe siliciu. Această arhitectură părea o constrângere când DRAM-ul era ieftin. Ai nevoie de sute de cipuri Groq conectate în rețea pentru a rula un model de 70B parametri, deoarece fiecare cip conține foarte puțină memorie. Calcul la scară de rack. Interconexiuni complexe. Intensiv în capital. Dar când DRAM-ul scade de 4 ori într-un trimestru și aprovizionarea HBM devine constrângerea de legătură pentru întreaga construcție AI, acea "limitare" se transformă într-un avantaj. LPU-ul Groq este fabricat pe siliciu de 14nm. Străvechi după standardele semiconductorilor. Nicio dependență de nodurile de ultimă generație ale TSMC. Nicio dependență de cele trei companii care controlează 90%+ din producția de DRAM. Jensen a cheltuit 20 de miliarde de dolari pentru a acoperi cea mai periculoasă expunere Nvidia din lanțul de aprovizionare. Dacă HBM rămâne rar și scump, el deține acum o arhitectură de inferență care evită complet această constrângere. Dacă HBM se normalizează, pierde 20 de miliarde de dolari pe o companie evaluată la 6,9 miliarde acum trei luni. Prima de preț îți arată estimarea probabilității lui Jensen. A plătit aproape de trei ori evaluarea în ultima rundă pentru o trapă de evacuare. Și, pentru ce contează, TrendForce proiectează lipsuri de memorie care se vor extinde până în primul trimestru al anului 2026 și ulterior. Samsung, SK Hynix și Micron beneficiază toate de marje operaționale de 40-60% și nu au niciun motiv să inunde piața. Oligopolul se comportă exact ca un oligopol. Întrebarea pe care nimeni nu o pune este: dacă tipul care vinde cele mai multe cipuri AI tocmai a cheltuit 20 de miliarde de dolari pentru a achiziționa o arhitectură care nu folosește DRAM, ce știe el despre aprovizionarea HBM pe care noi nu o știm?