Hur HBM driver upp DRAM-priserna: ▫️AI-datacenter behöver högbandbreddsminne (HBM) för AI-arbetsbelastningar (hastighet, kapacitet). ▫️HBM tillverkas genom att vertikalt stapla 3–4x DRAM-chip. ▫️Minnestillverkare (Micron, Samsung SK Hynix) använder DRAM för HBM istället för datorer och smartphones. ▫️DRAM står för 15–40 % av PC- och smartphonekostnaderna (leveransen håller på att ta slut och ny kapacitet går till HBM) ▫️HBM har mycket bättre rörelsemarginaler jämfört med DRAM (50 % mot 35 %) ▫️Kinesiska minnestillverkare fokuserar på HBM framför DRAM (samtidigt har Micron lämnat konsument-DRAM-verksamheten). ▫️År 2030 kommer HBM att stå för 50 %+ av alla DRAM-intäkter (upp från endast 8 % 2023). *** Statistik från The Economist: Bloomberg-video om Micron HBM: