Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Jensen acaba de decirte que la DRAM es un riesgo para la seguridad nacional y que nadie va a revalorar la exposición de Nvidia en la cadena de suministro.
Esto es lo que la mayoría piensa que pasó: Nvidia compró Groq por 20.000 millones de dólares para ampliar la inferencia. Un acqui-hire guay, buena tecnología, seguimos adelante.
Eso está mal.
Mira lo que realmente está ocurriendo en los mercados de DRAM ahora mismo. Los precios de los chips DDR5 pasaron de 6,84 a 27,20 dólares en el cuarto trimestre de 2025. Eso es un aumento de 4 veces en tres meses. Samsung acaba de subir los precios de los contratos un 100%. Kingston implementa aumentos semanales de dos dígitos. Los fabricantes de PC ahora envían ordenadores de sobremesa sin RAM porque literalmente no pueden conseguirla.
¿Por qué? HBM para centros de datos de IA. Samsung, SK Hynix y Micron han reasignado la capacidad de obleas a HBM a una tasa 3 veces superior a la DRAM estándar. La cadena de suministro de IA está canibalizando la memoria del consumidor, y no hay alivio hasta 2027 como muy pronto porque las nuevas fábricas tardan 4-5 años en construirse.
Las GPUs Nvidia tienen mucha HBM. Cada H100 lleva 80GB de HBM3. Cada sistema B200 requiere aún más. Y HBM consiste en múltiples chips de DRAM apilados con una fabricación extremadamente compleja. El triplicamiento de los precios de las DRAM no solo afecta a los fabricantes de PC. Alimenta directamente los costes de GPU y la capacidad de producción de Nvidia.
Las LPUs de Groq no usan ningún HBM. Cero.
Funcionan completamente con 230MB de SRAM integrada por procesador. El ancho de banda SRAM alcanza los 80 TB/s frente a los 8 TB/s de HBM. Los chips no necesitan memoria externa en absoluto. Cada peso se apoya directamente sobre el silicio.
Esta arquitectura parecía una limitación cuando la DRAM era barata. Necesitas cientos de chips Groq conectados en red para ejecutar un modelo de 70B parámetros porque cada chip contiene muy poca memoria. Computación a escala de rack. Interconexiones complejas. Intensivo en capital.
Pero cuando la DRAM se multiplica por 4 en un trimestre y el suministro de HBM se convierte en la restricción que obliga todo el desarrollo de la IA, esa "limitación" se convierte en una ventaja.
La LPU de Groq está fabricada con silicio de 14nm. Antiguo según los estándares de los semiconductores. No dependemos de los nodos más avanzados de TSMC. No dependen de las tres empresas que controlan el 90%+ de la producción de DRAM.
Jensen gastó 20.000 millones de dólares para cubrir la exposición más peligrosa de Nvidia en la cadena de suministro. Si HBM sigue siendo escaso y caro, ahora posee una arquitectura de inferencia que evita por completo la restricción. Si HBM normaliza, perderá 20.000 millones de dólares en una empresa que estaba valorada en 6.900 millones hace tres meses.
La prima de precio te indica la estimación de probabilidad de Jensen. Pagó casi tres veces la valoración de la última ronda por una escotilla de escape.
Y por si sirve de algo, TrendForce proyecta escasez de memoria durante el primer trimestre de 2026 y más allá. Samsung, SK Hynix y Micron disfrutan de márgenes operativos del 40-60% y no tienen ningún incentivo para saturar el mercado. El oligopolio se comporta exactamente como un oligopolio.
La pregunta que nadie se hace: si el tipo que vende más chips de IA acaba de gastar 20.000 millones de dólares para adquirir una arquitectura que no usa DRAM, ¿qué sabe él sobre el suministro de HBM que nosotros no?
Populares
Ranking
Favoritas
