Ouvi um episódio de podcast que vale muito a pena, intitulado "Silicon Valley 101 | A Era da Infraestrutura de Trilhão de Dólares dos Centros de Dados de IA: O Crescimento do PIB dos EUA Depende Disso". Como o podcast é longo, vou compartilhar alguns pontos que anotei, organizando alguns dos tópicos mencionados relacionados à eletricidade e capacidade computacional. Se tiver tempo, ainda vale a pena ouvir a versão completa. Parte das opiniões: 1️⃣ Quais são as empresas mais agressivas no setor de centros de dados? A OpenAI é a mais radical, com o objetivo de construir uma capacidade de computação de 10 gigawatts e, a longo prazo, 100 gigawatts. A xAI e a Meta também são agressivas, comprando turbinas geradoras e ocupando terrenos com energia barata para construir centros de dados. (5-7 trilhões de dólares de investimento estão a caminho) 1 gigawatt corresponde a 50 bilhões de dólares de investimento. 2️⃣ A velocidade de construção de centros de dados pela Microsoft está aumentando, e neste ano houve uma mudança na sua abordagem em relação à construção de centros de dados. O Google e a Microsoft já possuem mais de 10 gigawatts em seus centros de nuvem. Portanto, as novas empresas de IA serão ainda mais agressivas. 3️⃣ Os chips não são tão escassos quanto a energia. Nos últimos 2 anos, a capacidade de produção de chips já foi expandida. A lacuna de memória será um pouco maior, mas a maior lacuna ainda vem da eletricidade. 4️⃣ A lógica por trás da estratégia Power First: quem tem eletricidade pode usar uma quantidade tão grande de capacidade computacional, obtendo assim uma maior participação de mercado e gerando lucros que alimentam esse processo. O risco de "investimento insuficiente" é muito maior do que o risco de "investimento excessivo". 5️⃣ Andy dá, Bill tira. Andy refere-se ao ex-CEO da Intel, Andy Grove, e Bill refere-se ao ex-CEO da Microsoft, Bill Gates. Essa frase significa que o aumento do desempenho do hardware é rapidamente consumido pelo software. Atualmente, as grandes empresas (como a META) têm uma escassez interna de GPUs, e para uso interno é necessária muita capacidade computacional. Mesmo que haja capacidade excedente, ela pode ser usada internamente para reduzir custos. 6️⃣ Por que construir grandes centros de dados (maiores que 1 gigawatt)? Para reduzir custos operacionais e aumentar a eficiência do treinamento de IA. A tendência é de clusters de 10 mil a 100 mil unidades ou até maiores. 7️⃣ Onde está sendo utilizada a capacidade computacional? Há dois anos, mais capacidade era utilizada para pré-treinamento, que não gera receita, mas agora mais está sendo direcionada para inferência (60%), e espera-se que a proporção de aplicações e inferência continue a aumentar (realmente criando PIB). 8️⃣ A capacidade computacional ociosa pode ser utilizada por startups para inferência, mas é mais adequada para startups do que para grandes empresas, que se preocupam mais com a eficiência. 9️⃣ Fonte de eletricidade dos centros de dados ⚡️: O sistema elétrico dos EUA cresceu lentamente nos últimos 20 anos, com um aumento de 1% ao ano, muito abaixo da taxa de crescimento dos centros de dados. Demanda adicional: os EUA precisam aumentar a capacidade de geração em 80 gigawatts, Lacuna: 20 gigawatts por ano (8 gigawatts vêm dos centros de dados) O consumo anual de eletricidade em Nova Iorque varia entre 6-11 gigawatts. Fornecimento: principalmente gás natural, armazenamento solar, energia nuclear (após 2028). 🔟 A rede elétrica dos EUA é frágil: Geração (50%) - Transmissão (20%) - Distribuição (30%). A rede elétrica existente também tem dificuldades em absorver essa nova capacidade de geração....