Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Jensen acaba de decirte que el DRAM es un riesgo para la seguridad nacional y nadie está reevaluando la exposición de la cadena de suministro de Nvidia.
Esto es lo que la mayoría de la gente piensa que sucedió: Nvidia compró Groq por 20 mil millones de dólares para expandirse en inferencia. Buen acqui-hire, buena tecnología, seguimos adelante.
Eso es incorrecto.
Mira lo que está sucediendo en los mercados de DRAM en este momento. Los precios de los chips DDR5 pasaron de 6.84 a 27.20 dólares en el cuarto trimestre de 2025. Eso es un aumento de 4 veces en tres meses. Samsung acaba de aumentar los precios de contrato en un 100%. Kingston está implementando aumentos de dos dígitos semanalmente. Los proveedores de PC ahora están enviando escritorios sin RAM porque literalmente no pueden conseguirla.
¿Por qué? HBM para centros de datos de IA. Samsung, SK Hynix y Micron han reasignado capacidad de obleas a HBM a 3 veces la tasa del DRAM estándar. La cadena de suministro de IA está canibalizando la memoria de consumo, y no habrá alivio hasta 2027 como muy pronto porque las nuevas fábricas tardan de 4 a 5 años en construirse.
Las GPU de Nvidia son pesadas en HBM. Cada H100 tiene 80GB de HBM3. Cada sistema B200 requiere aún más. Y HBM consiste en múltiples chips de DRAM apilados juntos con una fabricación extremadamente compleja. El triplicado de los precios del DRAM no solo afecta a los constructores de PC. Se alimenta directamente en los costos de las GPU de Nvidia y en la capacidad de producción.
Los LPUs de Groq no utilizan HBM. Cero.
Funcionan completamente con 230MB de SRAM en chip por procesador. El ancho de banda de SRAM alcanza 80 TB/s frente a los 8 TB/s de HBM. Los chips no necesitan memoria externa en absoluto. Cada peso se encuentra directamente en el silicio.
Esta arquitectura parecía una limitación cuando el DRAM era barato. Necesitas cientos de chips Groq interconectados para ejecutar un modelo de 70B de parámetros porque cada chip tiene tan poca memoria. Computación a escala de rack. Interconexiones complejas. Intensivo en capital.
Pero cuando el DRAM se cuadruplica en un trimestre y el suministro de HBM se convierte en la restricción vinculante para toda la construcción de IA, esa "limitación" se invierte en una ventaja.
El LPU de Groq se fabrica en silicio de 14nm. Antiguo según los estándares de semiconductores. Sin dependencia de los nodos de vanguardia de TSMC. Sin dependencia de las tres empresas que controlan más del 90% de la producción de DRAM.
Jensen gastó 20 mil millones de dólares para cubrir la exposición más peligrosa de la cadena de suministro de Nvidia. Si el HBM sigue siendo escaso y caro, ahora posee una arquitectura de inferencia que elude completamente la restricción. Si el HBM se normaliza, ha perdido 20 mil millones de dólares en una empresa que fue valorada en 6.9 mil millones hace tres meses.
La prima de precio te dice la estimación de probabilidad de Jensen. Pagó casi 3 veces la valoración de la última ronda por una salida de emergencia.
Y por lo que vale, TrendForce proyecta que las escaseces de memoria se extenderán hasta el primer trimestre de 2026 y más allá. Samsung, SK Hynix y Micron están disfrutando de márgenes operativos del 40-60% y no tienen ningún incentivo para inundar el mercado. El oligopolio se comporta exactamente como un oligopolio.
La pregunta que nadie está haciendo: si el tipo que vende la mayoría de los chips de IA acaba de gastar 20 mil millones de dólares en adquirir una arquitectura que no utiliza DRAM, ¿qué sabe sobre el suministro de HBM que nosotros no sabemos?
Parte superior
Clasificación
Favoritos
