Jag har plottat minneskapacitet mot efterfrågan och försöker knäcka min egen modell. @zephyr_z9 Missar jag något? Framåtblickande P/E på ~6 på SK Hynix ser ut som ett riktigt kap. Minne - $MU, Samsung, Sk Hynix, $SNDK - HBM är inte användbart utan avancerad 2,5D-förpackning. HBM-stackar måste placeras bredvid GPU/ASIC på en kiselinterposer och sedan integreras i ett enda paket. Det steget är vad CoWoS erbjuder. Om du inte kan paketera kan du inte skicka HBM-baserade acceleratorer, även om DRAM-wafers finns. - CoWoS-kapaciteten skalar långsammare än DRAM-waferens utgång. Att utöka CoWoS kräver nya verktyg, renrumsutrymme och specialiserade leveranskedjeinsatser (stora interposerare, avancerade substrat, TSV-processer). De har längre leveranstider än kapacitetsförändringar i DRAM:s fabrik. - AI-acceleratorer är paketintensiva. Ett enda AI-acceleratorpaket kan förbruka mycket CoWoS-kapacitet eftersom interposerare är stora och utbyten är tuffare. Detta gör att de effektiva "enheter per månad" är lägre än vad folk förväntar sig från wafer-baserat tänkande. - De flesta högvolyms AI-acceleratorer är beroende av TSMC:s CoWoS. Alternativ finns (Samsung I-Cube/X-Cube, Intel EMIB/Foveros), men ekosystemet och volymen idag är mest koncentrerade kring CoWoS, som skapar en enda flaskhals. - Flaskhalsar i förpackningar sprids till HBM-leverans. HBM-leverantörer kan producera wafers, men om förpackningskapaciteten för slutmoduler eller acceleratorpaket är knapp blir HBM-fördelningen ransonerad och det ser ut som en leveransbrist.