$MU har precis tillkännagivit den största halvledartillverkningsanläggningen i USA:s historia med en avancerad minnesmegafab värd 100 miljarder dollar i New York. Minne är bara ett lager, så här ser AI-onshoring ut över hela stacken: AI-chipdesign • $NVDA definierar standardarkitekturen för AI-träning och en växande andel av inferensen • $AMD tillhandahåller den kritiska andra GPU-stacken som förhindrar att AI-ekonomin förlitar sig på en leverantör • $GOOGL designar TPU:er för att internalisera AI-arbetsbelastningar och försvara marginaler • $AMZN bygger Trainium & Inferentia för att kontrollera inferenskostnader inom AWS • $INTC designar CPU:er och acceleratorer samtidigt som man strävar efter att återupprätta relevansen för inhemsk tillverkning • $MSFT designar specialanpassad kisel för att optimera Azures AI-stack från början till slut AI-chip-meddesigners • $AVGO samkonstruerar specialdesignat kisel med hyperskalare och kopplar samman beräkning, minne och nätverk till arbetsbelastningsspecifika AI-system • $MRVL möjliggör anpassade acceleratorer och höghastighetskopplingar anpassade för AI-träning och inferens. Edge-AI • $AAPL bäddar in inferensen direkt i konsumentenheter • $QCOM skalar lågenergi-AI över mobila och edge-endpoints EDA & IP • $SNPS, $CDNS tillhandahåller designverktygen som varje avancerat AI-chip måste passera igenom innan det kan existera • $ARM licensierar CPU-arkitekturer som är inbäddade i datacenter-, edge- och mobila AI-system Gjuterier • $TSM är fabriken som tillverkar chipen som hela AI-stacken är beroende av • $INTC är den strategiska andra källan som försöker återuppbygga avancerad chiptillverkning Wafer Fab-utrustning • $ASML är AI:ns kungamakare eftersom varje avancerad nodchip byggs med hjälp av dess litografimaskiner...