Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
A Microsoft acaba de anunciar o Maia 200, seu chip de IA personalizado de segunda geração.
Este é um momento realmente significativo na corrida armamentista da computação em nuvem.
O Maia 200 da Microsoft é um chip especializado projetado pela Microsoft, mas fabricado pela TSMC utilizando sua tecnologia de processo de ponta de 3 nanômetros.
Pense assim: se a Nvidia te vende um motor de carro pré-fabricado, a Microsoft está construindo seu próprio motor especificamente para o trabalho que precisa.
O chip foi projetado especificamente para inferência de IA, o processo de realmente rodar modelos de IA para gerar respostas, não treiná-los do zero.
O chip entrou em operação nos data centers da Microsoft em Iowa a partir de 26 de janeiro de 2026, com implantações no Arizona em seguida.
Quatro desses chips funcionam juntos em cada servidor, conectados por cabos Ethernet padrão em vez de tecnologia proprietária, o que reduz custos e complexidade em comparação com a abordagem da Nvidia.
A Microsoft já está usando o Maia 200 para alimentar os modelos GPT-5.2 da OpenAI no Azure e no Microsoft 365 Copilot.
A Microsoft afirma que o Maia 200 entrega três vezes o desempenho do chip Trainium da Amazon e supera a TPU do Google em benchmarks-chave.
Mais importante ainda, a Microsoft afirma ter um desempenho por dólar 30% melhor do que sua frota atual de hardware.
Para uma empresa de nuvem que gerencia centenas de milhares de chips, essa vantagem de eficiência se traduz em bilhões de dólares ao longo do tempo.
O chip conta com 216GB de memória ultra rápida com 7TB/s de largura de banda de memória.
A Microsoft explicitamente enquadrou isso como uma redução da "dependência da Nvidia", e essa é a verdadeira história.
A Nvidia atualmente controla aproximadamente 85% do mercado de aceleradores de IA, com margens brutas de 73-75% nas vendas de hardware.
Mas aqui está o problema para a Nvidia: os quatro grandes hyperscalers — Microsoft, Meta, Amazon e Google — agora representam 40-50% da receita da Nvidia e todos os quatro estão agora implantando chips de IA personalizados em produção.
...
Melhores
Classificação
Favoritos
