Jensen ti ha appena detto che il DRAM è un rischio per la sicurezza nazionale e nessuno sta rivedendo l'esposizione della catena di fornitura di Nvidia. Ecco cosa pensa la maggior parte delle persone sia successo: Nvidia ha acquistato Groq per 20 miliardi di dollari per espandersi nell'inferenza. Ottima acquisizione, buona tecnologia, si va avanti. Questo è sbagliato. Guarda cosa sta realmente accadendo nei mercati del DRAM in questo momento. I prezzi dei chip DDR5 sono passati da 6,84 dollari a 27,20 dollari nel quarto trimestre del 2025. Questo è un aumento di 4 volte in tre mesi. Samsung ha appena aumentato i prezzi dei contratti del 100%. Kingston sta implementando aumenti a due cifre settimanalmente. I fornitori di PC ora stanno spedendo desktop senza RAM perché letteralmente non riescono a reperirla. Perché? HBM per i data center AI. Samsung, SK Hynix e Micron hanno riallocato la capacità dei wafer all'HBM a un ritmo 3 volte superiore rispetto al DRAM standard. La catena di fornitura AI sta cannibalizzando la memoria dei consumatori, e non ci sarà sollievo fino al 2027 al più presto perché i nuovi impianti richiedono 4-5 anni per essere costruiti. Le GPU Nvidia sono pesanti in HBM. Ogni H100 ha 80GB di HBM3. Ogni sistema B200 richiede ancora di più. E l'HBM è composto da più die di DRAM impilati insieme con una produzione estremamente complessa. Il triplo dei prezzi del DRAM non influisce solo sui costruttori di PC. Si riflette direttamente sui costi delle GPU di Nvidia e sulla capacità di produzione. Le LPU di Groq non utilizzano HBM. Zero. Funzionano interamente su 230MB di SRAM on-chip per processore. La larghezza di banda dell'SRAM raggiunge 80 TB/s contro gli 8 TB/s dell'HBM. I chip non necessitano affatto di memoria esterna. Ogni peso si trova direttamente sul silicio. Questa architettura sembrava una limitazione quando il DRAM era economico. Hai bisogno di centinaia di chip Groq collegati in rete per eseguire un modello con 70 miliardi di parametri perché ogni chip contiene così poca memoria. Calcolo a livello di rack. Interconnessioni complesse. Capital intensive. Ma quando il DRAM aumenta di 4 volte in un trimestre e l'offerta di HBM diventa il vincolo principale per l'intera espansione dell'AI, quella "limitazione" si trasforma in un vantaggio. L'LPU di Groq è fabbricata su silicio a 14nm. Antico secondo gli standard dei semiconduttori. Nessuna dipendenza dai nodi all'avanguardia di TSMC. Nessuna dipendenza dalle tre aziende che controllano oltre il 90% della produzione di DRAM. Jensen ha speso 20 miliardi di dollari per coprire l'esposizione più pericolosa della catena di fornitura di Nvidia. Se l'HBM rimane scarso e costoso, ora possiede un'architettura di inferenza che elude completamente il vincolo. Se l'HBM si normalizza, ha perso 20 miliardi di dollari su un'azienda che era valutata 6,9 miliardi di dollari tre mesi fa. Il premio di prezzo ti dice la stima di probabilità di Jensen. Ha pagato quasi 3 volte l'ultima valutazione per una via di fuga. E per quello che vale, TrendForce prevede che le carenze di memoria si estenderanno fino al primo trimestre del 2026 e oltre. Samsung, SK Hynix e Micron stanno tutti godendo margini operativi del 40-60% e non hanno alcun incentivo a inondare il mercato. L'oligopolio si comporta esattamente come un oligopolio. La domanda che nessuno sta ponendo: se il tizio che vende il maggior numero di chip AI ha appena speso 20 miliardi di dollari per acquisire un'architettura che non utilizza DRAM, cosa sa sull'offerta di HBM che noi non sappiamo?