Jensen acabou de te dizer que o DRAM é um risco para a segurança nacional e ninguém está a reavaliar a exposição da cadeia de suprimentos da Nvidia. Aqui está o que a maioria das pessoas pensa que aconteceu: a Nvidia comprou a Groq por $20B para expandir-se na inferência. Uma boa aquisição, boa tecnologia, seguindo em frente. Isso está errado. Olhe para o que está realmente a acontecer nos mercados de DRAM agora. Os preços dos chips DDR5 passaram de $6.84 para $27.20 no Q4 de 2025. Isso é um aumento de 4x em três meses. A Samsung acabou de aumentar os preços dos contratos em 100%. A Kingston está implementando aumentos de dois dígitos semanalmente. Os fornecedores de PC estão agora a enviar desktops sem RAM porque literalmente não conseguem obtê-la. Por quê? HBM para datacenters de IA. A Samsung, SK Hynix e Micron realocaram capacidade de wafer para HBM a uma taxa 3x maior do que o DRAM padrão. A cadeia de suprimentos de IA está canibalizando a memória de consumo, e não há alívio até 2027 no mínimo, porque novas fábricas levam de 4 a 5 anos para serem construídas. As GPUs da Nvidia são pesadas em HBM. Cada H100 possui 80GB de HBM3. Cada sistema B200 requer ainda mais. E o HBM consiste em múltiplos dies de DRAM empilhados juntos com uma fabricação extremamente complexa. O triplo dos preços do DRAM não afeta apenas os construtores de PCs. Isso alimenta diretamente os custos e a capacidade de produção das GPUs da Nvidia. Os LPUs da Groq não usam HBM. Zero. Eles funcionam inteiramente com 230MB de SRAM on-chip por processador. A largura de banda da SRAM atinge 80 TB/s em comparação com os 8 TB/s do HBM. Os chips não precisam de memória externa de forma alguma. Cada peso está diretamente no silício. Essa arquitetura parecia uma limitação quando o DRAM era barato. Você precisa de centenas de chips Groq interconectados para rodar um modelo de 70B de parâmetros porque cada chip possui tão pouca memória. Computação em rack. Interconexões complexas. Intensivo em capital. Mas quando o DRAM aumenta 4x em um trimestre e a oferta de HBM se torna a restrição vinculativa em toda a construção de IA, essa "limitação" se inverte em uma vantagem. O LPU da Groq é fabricado em silício de 14nm. Antigo pelos padrões de semicondutores. Sem dependência dos nós de ponta da TSMC. Sem dependência das três empresas que controlam mais de 90% da produção de DRAM. Jensen gastou $20B para proteger a exposição mais perigosa da cadeia de suprimentos da Nvidia. Se o HBM continuar escasso e caro, ele agora possui uma arquitetura de inferência que contorna completamente a restrição. Se o HBM se normalizar, ele perdeu $20B em uma empresa que foi avaliada em $6.9B há três meses. O prêmio de preço diz-lhe a estimativa de probabilidade de Jensen. Ele pagou quase 3x a avaliação da última rodada por uma saída. E para o que vale, a TrendForce projeta que as faltas de memória se estenderão até o Q1 de 2026 e além. A Samsung, SK Hynix e Micron estão todas a desfrutar de margens operacionais de 40-60% e não têm nenhum incentivo para inundar o mercado. O oligopólio está a comportar-se exatamente como um oligopólio. A pergunta que ninguém está a fazer: se o cara que vende mais chips de IA acabou de gastar $20B para adquirir uma arquitetura que não usa DRAM, o que ele sabe sobre a oferta de HBM que nós não sabemos?