Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Jensen sa precis att DRAM är en nationell säkerhetsrisk och att ingen omprisar Nvidias exponering i leveranskedjan.
Här är vad de flesta tror hände: Nvidia köpte Groq för 20 miljarder dollar för att expandera till inferens. Coolt förvärv, bra teknik, går vidare.
Det är fel.
Titta på vad som faktiskt händer på DRAM-marknaderna just nu. DDR5-chippriserna gick från 6,84 dollar till 27,20 dollar under fjärde kvartalet 2025. Det är en fyrdubbling på tre månader. Samsung har precis höjt kontraktspriserna med 100%. Kingston genomför tvåsiffriga höjningar varje vecka. PC-tillverkare levererar nu stationära datorer utan RAM eftersom de bokstavligen inte kan få tag på det.
Varför? HBM för AI-datacenter. Samsung, SK Hynix och Micron har omfördelat waferkapacitet till HBM med tre gånger högre hastighet än standard-DRAM. AI-leveranskedjan kannibaliserar konsumentminnet, och det finns ingen lättnad förrän tidigast 2027 eftersom nya fabriker tar 4–5 år att bygga.
Nvidia-GPU:er är tunga på HBM. Varje H100 har 80 GB HBM3. Varje B200-system kräver ännu mer. Och HBM består av flera DRAM-formar staplade tillsammans med extremt komplex tillverkning. Att DRAM-priserna tredubblas påverkar inte bara PC-byggare. Det påverkar direkt Nvidias GPU-kostnader och produktionskapacitet.
Groqs LPU:er använder noll HBM. Noll.
De körs helt på 230 MB inbyggd SRAM per processor. SRAM-bandbredden når 80 TB/s jämfört med HBMs 8 TB/s. Chippen behöver inte externt minne alls. Varje vikt sitter direkt på kiselet.
Denna arkitektur verkade vara en begränsning när DRAM var billigt. Du behöver hundratals Groq-chip som är nätverkskopplade för att köra en 70B-parametermodell eftersom varje chip har så lite minne. Rack-skale-datorer. Komplexa sammankopplingar. Kapitalintensiv.
Men när DRAM går fyra gånger på en kvartal och HBM-tillgången blir bindande begränsning för hela AI-utbyggnaden, vänds den "begränsningen" till en fördel.
Groqs LPU tillverkas på 14nm kisel. Uråldrigt enligt halvledarstandard. Ingen beroende av TSMC:s toppmoderna noder. Inget beroende av de tre företagen som kontrollerar 90%+ av DRAM-produktionen.
Jensen spenderade 20 miljarder dollar för att säkra Nvidias farligaste exponering för leveranskedjan. Om HBM förblir sällsynt och dyrt, äger han nu en inferensarkitektur som helt kringgår begränsningen. Om HBM normaliserar sig är han 20 miljarder dollar förlorad på ett företag som värderades till 6,9 miljarder dollar för tre månader sedan.
Prispremien visar Jensens sannolikhetsuppskattning. Han betalade nästan tre gånger förra rundans värde för en nödutgång.
Och för vad det är värt, TrendForce förutspår minnesbrist som sträcker sig fram till Q1 2026 och framåt. Samsung, SK Hynix och Micron har alla 40–60 % rörelsemarginal och har noll incitament att översvämma marknaden. Oligopolet beter sig exakt som ett oligopol.
Frågan som ingen ställer: om killen som säljer flest AI-chip just spenderade 20 miljarder dollar på att skaffa en arkitektur som inte använder DRAM, vad vet han om HBM-leveranser som vi inte gör?
Topp
Rankning
Favoriter
