He trazado la capacidad de memoria frente a la demanda y estoy tratando de romper mi propio modelo. @zephyr_z9 ¿Me estoy perdiendo de algo? El P/E adelantado de ~6 en SK Hynix parece una verdadera ganga. Memoria - $MU, Samsung, Sk Hynix, $SNDK - HBM no es utilizable sin un empaquetado avanzado 2.5D. Los apilamientos de HBM deben colocarse al lado del GPU/ASIC en un interposer de silicio, y luego integrarse en un solo paquete. Ese paso es lo que proporciona CoWoS. Si no puedes empaquetar, no puedes enviar aceleradores basados en HBM, incluso si existen obleas de DRAM. - La capacidad de CoWoS escala más lentamente que la producción de obleas de DRAM. Ampliar CoWoS necesita nuevas herramientas, espacio en sala limpia y entradas de cadena de suministro especializadas (interposers grandes, sustratos avanzados, procesos TSV). Estos tienen tiempos de entrega más largos que los cambios en la capacidad de fabricación de DRAM. - Los aceleradores de IA son intensivos en empaquetado. Un solo paquete de acelerador de IA puede consumir mucha capacidad de CoWoS porque los interposers son grandes y los rendimientos son más difíciles. Esto hace que las "unidades efectivas por mes" sean más bajas de lo que la gente espera con un pensamiento basado en obleas. - La mayoría de los aceleradores de IA de alto volumen dependen de CoWoS de TSMC. Existen alternativas (Samsung I-Cube/X-Cube, Intel EMIB/Foveros), pero el ecosistema y el volumen hoy están más concentrados en CoWoS, lo que crea un único punto de estrangulamiento. - Los cuellos de botella en el empaquetado se propagan a la oferta de HBM. Los proveedores de HBM pueden producir obleas, pero si la capacidad de empaquetado para módulos finales o paquetes de aceleradores es ajustada, la asignación de HBM se raciona y parece una escasez de suministro.