$MU acaba de anunciar a maior instalação de fabricação de semicondutores na história dos EUA com uma megafábrica de memória avançada de $100B em Nova Iorque. A memória é apenas uma camada, então aqui está como a onshoring de IA se parece em toda a pilha: Design de Chips de IA • $NVDA define a arquitetura padrão para treinamento de IA e uma parte crescente da inferência • $AMD fornece a crítica segunda pilha de GPU que impede a economia de IA de depender de um único fornecedor • $GOOGL projeta TPUs para internalizar cargas de trabalho de IA e defender margens • $AMZN constrói Trainium e Inferentia para controlar os custos de inferência dentro da AWS • $INTC projeta CPUs e aceleradores enquanto se esforça para restabelecer a relevância da fabricação doméstica • $MSFT projeta silício personalizado para otimizar a pilha de IA do Azure de ponta a ponta Co-Designers de Chips de IA • $AVGO co-projeta silício personalizado com hyperscalers ligando computação, memória e redes em sistemas de IA específicos para cargas de trabalho • $MRVL permite aceleradores personalizados e interconexões de alta velocidade ajustadas para treinamento e inferência de IA Edge AI • $AAPL incorpora inferência diretamente em dispositivos de consumo • $QCOM escala IA de baixo consumo em endpoints móveis e de borda EDA & IP • $SNPS, $CDNS fornecem as ferramentas de design que todos os chips avançados de IA devem passar antes de poderem existir • $ARM licencia as arquiteturas de CPU incorporadas em sistemas de IA de data center, borda e móvel Fábricas • $TSM é a fábrica que fabrica os chips dos quais toda a pilha de IA depende • $INTC é a segunda fonte estratégica que tenta reverter a fabricação avançada de chips Equipamento de Fabricação de Wafer • $ASML é o criador de reis da IA, uma vez que todos os chips de nó avançado são construídos usando suas máquinas de litografia...