Reflexiones sobre NVIDIA Rubin y AMD MI455X Vamos a profundizar en una comparación entre el Rubin de Nvidia y el MI455X de AMD, ambos presentados hoy. A partir de Rubin, utiliza una configuración HBM4 de 8 pilas. Cuenta con un ancho de banda de memoria de 22TB/s, aprovechando la memoria con un Fmax por pin de unos 10,7Gbps. Por otro lado, el MI455X opta por una configuración HBM4 de 12 pilas. Sin embargo, ofrece un ancho de banda de 19,6TB/s, utilizando memoria con un Fmax por pin de aproximadamente 6,4Gbps. Teniendo en cuenta que el estándar JEDEC actual para HBM4 es de 8Gbps, la diferencia es notable: Rubin utiliza HBM4 de alta gama y alta gama, mientras que el MI455X parece depender de HBM4 que está por debajo de la especificación estándar. Esto pone de manifiesto una divergencia clara en la estrategia corporativa: el uso de componentes de primer nivel frente a la capacidad de fuerza bruta. AMD probablemente adoptó este enfoque porque asegurar un volumen HBM4 a alta velocidad es un reto para ellos. Sin embargo, esta estrategia conlleva dos riesgos importantes. Primero, las implicaciones de coste y rendimiento. Montar más pilas de HBM requiere un área de interposer mayor, lo que eleva directamente los costes unitarios. Además, una huella mayor inevitablemente reduce el rendimiento para el ensamblaje de envases 2.5D. En otras palabras, la estrategia de usar más unidades de HBM4 de menor gama podría, paradójicamente, resultar más costosa que la estrategia de Nvidia de usar menos unidades de HBM4 de alta gama. Segundo, el impacto durante la escasez de memoria. Este enfoque agrava los cuellos de botella en la cadena de suministro. Una configuración de 12 pilas consume un 50% más de chiplets/pilas HBM por GPU en comparación con un diseño de 8 pilas. Cuanto más reducido sea el suministro global de HBM4, más limitado estará el volumen de envíos de AMD por la disponibilidad de memoria. Por supuesto, en las primeras fases, cuando los rendimientos para HBM4 de alta gama son bajos, esto no supone un problema importante: los bajos rendimientos de las piezas de top-bin resultan naturalmente en una abundancia de oferta con menos contención. Pero, ¿qué ocurre a medida que mejora la curva de aprendizaje de rendimiento? A medida que aumentan los rendimientos de los HBM4 de alta selección, los proveedores tendrán más incentivos para asignar obleas a los chips de mayor margen destinados a Nvidia. Esto hace cada vez más difícil para AMD conseguir grandes volúmenes de HBM4 de bajo rendimiento a precios bajos. Además, con Samsung rindiendo bien en el espacio HBM4, AMD no podrá adquirir inventario a precios de "liquidación" como lo hizo durante el ciclo HBM3E. En última instancia, AMD se enfrenta a una estructura de costes inherentemente más desventajosa a nivel de chip en comparación con Rubin de Nvidia.