Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
3 COISAS QUE IMPORTAM SOBRE O ACORDO $NVDA + GROQ
1. Isso era sobre possuir a economia de inferência, não sobre corrigir uma lacuna de chip
A Nvidia não contratou a Groq porque estava atrasada em chips, uma vez que a Nvidia já domina o treinamento e a maior parte da inferência e seu roteiro (GB300, Rubin) continua a reduzir o custo por token enquanto expande o desempenho mais rápido do que quase qualquer outra empresa. O treinamento é um evento único, enquanto a inferência é onde o novo modelo de negócios de IA vive, então, à medida que a IA avança para produtos reais, o dinheiro se desloca para quem controla o tempo de execução.
2. O futuro onde a inferência escapa da Nvidia acabou de ser absorvido
A Groq era uma das poucas provas credíveis de que a inferência sensível à latência poderia eventualmente sair das GPUs e, com o tempo, isso teria minado o status "inevitável" da Nvidia. O risco foi amplificado pelo fundador da Groq, Jonathan Ross, que anteriormente construiu TPUs na $GOOGL e já provou que silício personalizado pode competir em cargas de trabalho reais. Este acordo fecha essa porta antes que ela pudesse escalar.
3. A inferência determinística era a camada que faltava
As GPUs se destacam em flexibilidade e escala, mas nunca foram projetadas para garantir tempos de resposta perfeitamente consistentes. Isso importa porque a IA do mundo real falha quando há oscilações de latência: assistentes de voz pausam, traduções ao vivo atrasam, fluxos de trabalho agentes acumulam atrasos. A Groq resolveu isso projetando em torno de grandes quantidades de SRAM, mantendo os dados próximos ao processador e entregando respostas rápidas todas as vezes. Isso fez da Groq uma solução única para IA em tempo real, onde a latência importa mais do que a taxa de transferência máxima.
Neste ponto, é difícil argumentar que a Nvidia vende apenas chips quando está claramente construindo a plataforma que possui treinamento, rede e agora inferência em tempo real.
$20B hoje para evitar um problema de $200B mais tarde.


Top
Classificação
Favoritos
