Hoe HBM de DRAM-prijzen opdrijft: ▫️AI-datacenters hebben high-bandwidth memory (HBM) nodig voor AI-werkbelastingen (snelheid, capaciteit). ▫️HBM wordt gemaakt door 3-4x DRAM-chips verticaal op te stapelen. ▫️Geheugenfabrikanten (Micron, Samsung SK Hynix) gebruiken DRAM voor HBM in plaats van voor pc's en smartphones. ▫️DRAM maakt 15-40% uit van de kosten van pc's en smartphones (de voorraad raakt op en nieuwe capaciteit gaat naar HBM). ▫️HBM heeft veel betere operationele marges in vergelijking met DRAM (50% vs. 35%). ▫️Chinese geheugenspecialisten richten zich meer op HBM dan op DRAM (intussen heeft Micron de consumenten-DRAM-markt verlaten). ▫️Tegen 2030 zal HBM meer dan 50% van alle DRAM-inkomsten uitmaken (oplopend van slechts 8% in 2023). *** Statistieken van The Economist: Bloomberg-video van Micron HBM: