$MU hat gerade die größte Halbleiterfertigungsanlage in der Geschichte der USA mit einem 100-Milliarden-Dollar großen fortschrittlichen Speicher-Megafab in New York angekündigt. Speicher ist nur eine Schicht, also so sieht das Onshoring von KI über den gesamten Stack aus: KI-Chip-Design • $NVDA definiert die Standardarchitektur für KI-Training und einen wachsenden Anteil an Inferenz • $AMD liefert den kritischen zweiten GPU-Stack, der die KI-Wirtschaft daran hindert, sich auf einen Anbieter zu verlassen • $GOOGL entwirft TPUs, um KI-Workloads zu internalisieren und Margen zu verteidigen • $AMZN baut Trainium und Inferentia, um die Inferenzkosten innerhalb von AWS zu kontrollieren • $INTC entwirft CPUs und Beschleuniger und drängt darauf, die Relevanz der heimischen Fertigung wiederherzustellen • $MSFT entwirft maßgeschneiderte Siliziumlösungen, um den KI-Stack von Azure von Ende zu Ende zu optimieren KI-Chip-Co-Designer • $AVGO co-designs maßgeschneiderte Siliziumlösungen mit Hyperscalern, die Rechenleistung, Speicher und Netzwerke in arbeitslastspezifische KI-Systeme integrieren • $MRVL ermöglicht maßgeschneiderte Beschleuniger und Hochgeschwindigkeitsverbindungen, die für KI-Training und -Inferenz optimiert sind Edge KI • $AAPL bettet Inferenz direkt in Verbrauchergeräte ein • $QCOM skaliert energieeffiziente KI über mobile und Edge-Endpunkte EDA & IP • $SNPS, $CDNS liefern die Entwurfswerkzeuge, durch die jeder fortschrittliche KI-Chip gehen muss, bevor er existieren kann • $ARM lizenziert die CPU-Architekturen, die in Rechenzentren, Edge- und mobilen KI-Systemen eingebettet sind Fabriken • $TSM ist die Fabrik, die die Chips herstellt, von denen der gesamte KI-Stack abhängt • $INTC ist die strategische zweite Quelle, die versucht, die fortschrittliche Chipfertigung zurückzuholen Wafer-Fab-Ausrüstung • $ASML ist der KI-Königsmacher, da jeder fortschrittliche Chip mit seinen Lithografiemaschinen hergestellt wird...