Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
3 COSAS QUE IMPORTAN SOBRE EL ACUERDO DE $NVDA + GROQ
1. Esto se trataba de poseer la economía de inferencia, no de solucionar una brecha de chips.
Nvidia no contrató a Groq porque estuviera rezagada en chips, ya que Nvidia ya domina el entrenamiento y la mayoría de la inferencia, y su hoja de ruta (GB300, Rubin) sigue empujando el costo por token hacia abajo mientras expande el rendimiento más rápido que casi nadie más. El entrenamiento es un evento único, mientras que la inferencia es donde vive el nuevo modelo de negocio de IA, así que a medida que la IA se mueve hacia productos reales, el dinero se desplaza hacia quien controla el tiempo de ejecución.
2. El futuro donde la inferencia escapa de Nvidia acaba de ser absorbido.
Groq era una de las pocas pruebas creíbles de que la inferencia sensible a la latencia podría eventualmente trasladarse de las GPU y, con el tiempo, eso habría ido erosionando el estatus "inexorable" de Nvidia. El riesgo se amplificó por el fundador de Groq, Jonathan Ross, quien anteriormente construyó TPUs en $GOOGL y ya demostró que el silicio personalizado puede competir en cargas de trabajo reales. Este acuerdo cierra esa puerta antes de que pudiera escalar.
3. La inferencia determinista era la capa que faltaba.
Las GPU sobresalen en flexibilidad y escala, pero nunca fueron diseñadas para garantizar tiempos de respuesta perfectamente consistentes. Eso importa porque la IA en el mundo real se rompe cuando hay fluctuaciones de latencia: los asistentes de voz se detienen, la traducción en vivo se retrasa, los flujos de trabajo agentes acumulan retrasos. Groq resolvió esto diseñando alrededor de grandes cantidades de SRAM al mantener los datos cerca del procesador y entregar respuestas rápidas cada vez. Eso hizo que Groq fuera especialmente adecuado para la IA en tiempo real donde la latencia importa más que el rendimiento máximo.
En este punto, es difícil argumentar que Nvidia solo vende chips cuando claramente está construyendo la plataforma que posee el entrenamiento, la red y ahora la inferencia en tiempo real.
$20B hoy para evitar un problema de $200B más tarde.


Parte superior
Clasificación
Favoritos
