$MU ha appena annunciato la più grande struttura di produzione di semiconduttori nella storia degli Stati Uniti con un megafab di memoria avanzata da 100 miliardi di dollari a New York. La memoria è solo uno strato, quindi ecco come appare l'onshoring dell'AI attraverso l'intero stack: Progettazione di chip AI • $NVDA definisce l'architettura predefinita per l'addestramento dell'AI e una quota crescente di inferenza • $AMD fornisce il secondo stack GPU critico che impedisce all'economia dell'AI di fare affidamento su un solo fornitore • $GOOGL progetta TPU per internalizzare i carichi di lavoro dell'AI e difendere i margini • $AMZN costruisce Trainium e Inferentia per controllare i costi di inferenza all'interno di AWS • $INTC progetta CPU e acceleratori mentre cerca di ristabilire la rilevanza della produzione domestica • $MSFT progetta silicio personalizzato per ottimizzare l'intero stack AI di Azure Co-progettisti di chip AI • $AVGO co-progetta silicio personalizzato con hyperscalers collegando calcolo, memoria e networking in sistemi AI specifici per carico di lavoro • $MRVL abilita acceleratori personalizzati e interconnessioni ad alta velocità sintonizzati per l'addestramento e l'inferenza dell'AI Edge AI • $AAPL integra l'inferenza direttamente nei dispositivi di consumo • $QCOM scala l'AI a basso consumo attraverso endpoint mobili e edge EDA e IP • $SNPS, $CDNS forniscono gli strumenti di progettazione che ogni chip AI avanzato deve attraversare prima di poter esistere • $ARM concede in licenza le architetture CPU incorporate nei sistemi AI per data center, edge e mobile Fonderie • $TSM è la fabbrica che produce i chip di cui dipende l'intero stack AI • $INTC è la seconda fonte strategica che cerca di riportare la produzione di chip avanzati nel paese Attrezzature per wafer fab • $ASML è il re dell'AI poiché ogni chip di nodo avanzato è costruito utilizzando le sue macchine di litografia...