$MU har nettopp kunngjort det største halvlederproduksjonsanlegget i USAs historie med en avansert minnemegafab til 100 milliarder dollar i New York. Minne er bare ett lag, så slik ser AI-onshoring ut over hele stakken: AI-brikkedesign • $NVDA definerer standardarkitekturen for AI-trening og en økende andel av inferensen • $AMD leverer den kritiske andre GPU-stakken som hindrer AI-økonomien i å være avhengig av én leverandør • $GOOGL designer TPU-er for å internalisere AI-arbeidsbelastninger og forsvare marginer • $AMZN bygger Trainium & Inferentia for å kontrollere inferenskostnader inne i AWS • $INTC designer CPU-er og akseleratorer samtidig som de arbeider for å gjenopprette relevant for innenlandsk produksjon • $MSFT designer egendefinert silisium for å optimalisere Azures AI-stakk ende-til-ende AI-brikke-meddesignere • $AVGO samdesigner tilpasset silisium med hyperskalere som knytter databehandling, minne og nettverk til arbeidsbelastningsspesifikke AI-systemer • $MRVL muliggjør tilpassede akseleratorer og høyhastighetsforbindelser tilpasset AI-trening og inferens. Edge AI • $AAPL integrerer inferenser direkte i forbrukerenheter • $QCOM skalerer lavenergi-AI på tvers av mobil- og edge-endepunkter EDA & IP • $SNPS, $CDNS leverer designverktøyene alle avanserte AI-brikker må passere gjennom før de kan eksistere • $ARM lisensierer CPU-arkitekturer som er innebygd på tvers av datasenter-, edge- og mobile AI-systemer Støperier • $TSM er fabrikken som produserer brikkene som hele AI-stakken er avhengig av • $INTC er den strategiske andre kilden som forsøker å omdirigere avansert chipproduksjon Wafer Fab-utstyr • $ASML er AI-kongemakeren siden hver avansert nodebrikke bygges ved hjelp av deres litografimaskiner...