2026 está se consolidando em 3 apostas realmente grandes onde, se uma falhar, resultará em um colapso curto da bolha 1. Centros de dados Antrópico, Xai escalando agressivamente para GPUs de 1M. ambos planejam atingir essa meta até o segundo trimestre. Os modelos resultantes treinados nessa infraestrutura precisam confirmar que a lei de escalonamento de computação ainda é eficaz. caso contrário, indicará que precisamos explorar uma nova arquitetura de modelo. Isso também depende da escala da infraestrutura energética (Power Shell), embora isso seja um problema na próxima década, quanto mais neste ano. 2. Memória este ano só temos memória suficiente para suportar GPUs de 15GW enquanto os hyperscalers estão mirando 30-40 nos próximos 2 anos. Estamos cortando bem aqui - se Samsung, $MU ou SK Hynix estragarem a produção, isso vai atrasar a aposta número 1. Além disso, quem garantir a maior parte dessa capacidade de memória para criar GPUs ganha mais dentro da capacidade de produção restrita, e no momento isso é $NVDA 3. infraestrutura mais barata e eficaz A última GPU da Nvidia, Vera Rubin, é 5 vezes mais eficiente, mas, importante, 4 vezes mais eficiente em termos de computação, o que significa que os custos de inferência despencaram – Frontier Intelligence por uma quantia de centavos! Haverá uma abundância de computação disponível para treinar, mas, mais importante, usar IA este ano, então o paradoxo de Jevons precisa provar seu valor diante da demanda crescente. se isso falhar, os dois acima colapsam. Na minha opinião, isso é o que menos me preocupa – acho que os harnesses de agente e o RL pós-treinamento vão continuar fortalecendo os modelos. Muito otimista