$MU vient d'annoncer la plus grande installation de fabrication de semi-conducteurs de l'histoire des États-Unis avec un mégafab de mémoire avancée de 100 milliards de dollars à New York. La mémoire n'est qu'une couche, voici à quoi ressemble la relocalisation de l'IA à travers l'ensemble de la pile : Conception de puces IA • $NVDA définit l'architecture par défaut pour l'entraînement de l'IA et une part croissante de l'inférence • $AMD fournit la deuxième pile GPU critique qui empêche l'économie de l'IA de dépendre d'un seul fournisseur • $GOOGL conçoit des TPU pour internaliser les charges de travail de l'IA et défendre les marges • $AMZN construit Trainium et Inferentia pour contrôler les coûts d'inférence à l'intérieur d'AWS • $INTC conçoit des CPU et des accélérateurs tout en s'efforçant de rétablir la pertinence de la fabrication nationale • $MSFT conçoit des silicones personnalisés pour optimiser la pile IA d'Azure de bout en bout Co-concepteurs de puces IA • $AVGO co-conçoit des silicones personnalisés avec des hyperscalers reliant le calcul, la mémoire et le réseau dans des systèmes IA spécifiques aux charges de travail • $MRVL permet des accélérateurs personnalisés et des interconnexions à haute vitesse adaptés à l'entraînement et à l'inférence de l'IA IA Edge • $AAPL intègre l'inférence directement dans les appareils grand public • $QCOM étend l'IA à faible consommation sur les points de terminaison mobiles et edge EDA & IP • $SNPS, $CDNS fournissent les outils de conception que chaque puce IA avancée doit traverser avant de pouvoir exister • $ARM licence les architectures CPU intégrées dans les systèmes IA des centres de données, edge et mobiles Fonderies • $TSM est l'usine qui fabrique les puces dont dépend l'ensemble de la pile IA • $INTC est la deuxième source stratégique tentant de relocaliser la fabrication avancée de puces Équipement de fabrication de wafers • $ASML est le faiseur de rois de l'IA puisque chaque puce de nœud avancé est construite à l'aide de ses machines de lithographie...