Hvordan HBM driver opp DRAM-prisene: ▫️AI-datasentre trenger høy-båndbredde minne (HBM) for AI-arbeidsbelastninger (hastighet, kapasitet). ▫️HBM lages ved å stable 3-4x DRAM-brikker vertikalt. ▫️Minneprodusenter (Micron, Samsung SK Hynix) bruker DRAM for HBM i stedet for PC-er og smarttelefoner. ▫️DRAM utgjør 15-40 % av PC- og smarttelefonkostnadene (forsyningen er i ferd med å ta slutt og ny kapasitet går til HBM) ▫️HBM har mye bedre driftsmarginer sammenlignet med DRAM (50 % mot 35 %) ▫️Kinesiske minneprodusenter fokuserer på HBM fremfor DRAM (i mellomtiden har Micron trukket seg ut av forbruker-DRAM-virksomheten). ▫️Innen 2030 vil HBM utgjøre 50 %+ av all DRAM-inntekt (opp fra bare 8 % i 2023). *** Statistikk fra The Economist: Bloomberg-video av Micron HBM: