J'ai tracé la capacité mémoire par rapport à la demande et j'essaie de casser mon propre modèle. @zephyr_z9 Est-ce que je manque quelque chose ? Le P/E à terme d'environ 6 sur SK Hynix semble être une véritable aubaine. Mémoire - $MU, Samsung, Sk Hynix, $SNDK - HBM n'est pas utilisable sans un emballage avancé en 2.5D. Les empilements HBM doivent être placés à côté du GPU/ASIC sur un interposeur en silicium, puis intégrés dans un seul package. Cette étape est ce que CoWoS fournit. Si vous ne pouvez pas emballer, vous ne pouvez pas expédier des accélérateurs basés sur HBM, même si des plaquettes DRAM existent. - La capacité de CoWoS évolue plus lentement que la production de plaquettes DRAM. L'expansion de CoWoS nécessite de nouveaux outils, de l'espace en salle blanche et des intrants spécialisés de la chaîne d'approvisionnement (grands interposeurs, substrats avancés, processus TSV). Ceux-ci ont des délais de livraison plus longs que les changements de capacité des usines DRAM. - Les accélérateurs AI sont intensifs en emballage. Un seul package d'accélérateur AI peut consommer beaucoup de capacité CoWoS car les interposeurs sont grands et les rendements sont plus difficiles. Cela rend les "unités par mois" effectives plus faibles que ce que les gens attendent d'une pensée basée sur les plaquettes. - La plupart des accélérateurs AI à fort volume dépendent de CoWoS de TSMC. Des alternatives existent (Samsung I-Cube/X-Cube, Intel EMIB/Foveros), mais l'écosystème et le volume aujourd'hui sont principalement concentrés autour de CoWoS, ce qui crée un point de blocage unique. - Les goulets d'étranglement de l'emballage se propagent à l'approvisionnement en HBM. Les fournisseurs HBM peuvent produire des plaquettes, mais si la capacité d'emballage pour les modules finaux ou les packages d'accélérateurs est limitée, l'allocation HBM est rationnée et ressemble à une pénurie d'approvisionnement.