$MU heeft zojuist de grootste halfgeleiderfabricagefaciliteit in de geschiedenis van de VS aangekondigd met een geavanceerde geheugenmegafabriek van $100B in New York. Geheugen is slechts één laag, dus zo ziet AI onshoring eruit over de volledige stack: AI Chip Ontwerp • $NVDA definieert de standaardarchitectuur voor AI-training en een groeiend aandeel van inferentie • $AMD levert de kritische tweede GPU-stack die voorkomt dat de AI-economie afhankelijk is van één leverancier • $GOOGL ontwerpt TPU's om AI-werkbelastingen te internaliseren en marges te verdedigen • $AMZN bouwt Trainium & Inferentia om de inferentiekosten binnen AWS te beheersen • $INTC ontwerpt CPU's & accelerators terwijl het probeert de relevantie van binnenlandse productie te herstellen • $MSFT ontwerpt aangepaste silicium om de AI-stack van Azure van begin tot eind te optimaliseren AI Chip Co-Designers • $AVGO co-ontwerpt aangepaste silicium met hyperscalers die rekencapaciteit, geheugen & netwerken koppelen aan werkbelastspecifieke AI-systemen • $MRVL maakt aangepaste accelerators & hogesnelheidsverbindingen mogelijk die zijn afgestemd op AI-training & inferentie Edge AI • $AAPL embedt inferentie direct in consumentenelektronica • $QCOM schaalt low-power AI over mobiele & edge-eindpunten EDA & IP • $SNPS, $CDNS levert de ontwerptools waar elke geavanceerde AI-chip doorheen moet voordat deze kan bestaan • $ARM licentiseert de CPU-architecturen die zijn ingebed in datacenters, edge & mobiele AI-systemen Foundries • $TSM is de fabriek die de chips produceert waar de hele AI-stack van afhankelijk is • $INTC is de strategische tweede bron die probeert geavanceerde chipproductie terug te brengen naar het binnenland Wafer Fab Equipment • $ASML is de AI koningmaker aangezien elke geavanceerde node-chip wordt gebouwd met behulp van zijn lithografiemachines...