A Nvidia pagou 3 vezes a avaliação de setembro da Groq para adquiri-la. Isto é estrategicamente nuclear. Todos os laboratórios de IA eram dependentes de GPU, criando um enorme risco de concentração. O Google libertou-se com TPUs para uso interno, provando que a narrativa "Nvidia ou nada" era falsa. Isso não apenas demonstrou a viabilidade técnica, mas revelou que a barreira de entrada da Nvidia era mais rasa do que os mercados acreditavam. Quando um hyperscaler constrói com sucesso silício personalizado, cada comprador sofisticado começa a fazer cálculos de "devemos construir o nosso próprio?". Isso reduz o TAM da Nvidia. Jonathan Ross (fundador da Groq) é o inventor do TPU. Ele compreendeu os princípios arquitetônicos que tornaram a aceleração de IA não-GPU viável. Sua arquitetura LPU visava cargas de trabalho de inferência onde as GPUs estão, na verdade, superdimensionadas. Isso é importante porque a inferência é onde está o verdadeiro dinheiro a longo prazo. O treinamento é um capex único, mas a inferência é um opex recorrente que escala com o uso. Se a Groq provou que os LPUs poderiam atingir um desempenho de preço competitivo em inferência, cada provedor de nuvem iria rotular sua arquitetura como própria. A Nvidia seria pressionada a "apenas treinamento" enquanto perde a receita de anuidade. É seguro ver este negócio como a Nvidia se protegendo contra a Groq permitindo um ecossistema inteiro de alternativas à Nvidia. Mas o que é mais interessante é o efeito de segunda ordem, os bloqueios de clientes. Agora, a Nvidia possui tanto o padrão incumbente (CUDA + GPU) quanto a arquitetura alternativa mais credível (LPUs). Isso é estratégico ao nível da compra do Github pela MSFT. Qualquer laboratório de IA avaliando "construir vs comprar vs fornecedor alternativo" agora enfrenta: - Opção A (GPUs Nvidia) - Opção B (Nvidia <> LPUs Groq) - Opção C (começar do zero) Transformando uma ameaça competitiva em uma ferramenta de segmentação de clientes, Jensen é o mestre das negociações. Eles podem agora discriminar preços: clientes premium pagam por GPUs, a inferência sensível ao preço é canalizada para LPUs, e a Nvidia captura ambos. Se a Nvidia não integrar os LPUs em seu roteiro, isso foi um movimento puramente defensivo. Se eles integrarem e começarem a oferecer pacotes "GPU para treinamento, LPU para inferência", isso se torna uma aquisição que amplia a barreira de entrada, digna de um manual. A coisa mais cara na tecnologia não é construir o futuro, é impedir que outra pessoa construa um futuro sem você.