$MU właśnie ogłosiło największy zakład produkcji półprzewodników w historii USA z megafabryką zaawansowanej pamięci o wartości 100 miliardów dolarów w Nowym Jorku. Pamięć to tylko jedna warstwa, więc oto jak wygląda onshoring AI w całym stosie: Projektowanie chipów AI • $NVDA definiuje domyślną architekturę dla treningu AI i rosnącego udziału wnioskowania • $AMD dostarcza krytyczną drugą warstwę GPU, która zapobiega poleganiu gospodarki AI na jednym dostawcy • $GOOGL projektuje TPU, aby zinternalizować obciążenia AI i bronić marż • $AMZN buduje Trainium i Inferentia, aby kontrolować koszty wnioskowania w AWS • $INTC projektuje CPU i akceleratory, jednocześnie dążąc do przywrócenia znaczenia krajowej produkcji • $MSFT projektuje niestandardowy krzem, aby zoptymalizować stos AI Azure od początku do końca Współprojektanci chipów AI • $AVGO współprojektuje niestandardowy krzem z hyperskalowcami, łącząc obliczenia, pamięć i sieci w systemy AI specyficzne dla obciążenia • $MRVL umożliwia niestandardowe akceleratory i szybkie połączenia dostosowane do treningu i wnioskowania AI Edge AI • $AAPL wbudowuje wnioskowanie bezpośrednio w urządzenia konsumenckie • $QCOM skaluje niskonapięciowe AI w mobilnych i brzegowych punktach końcowych EDA i IP • $SNPS, $CDNS dostarczają narzędzi projektowych, przez które musi przejść każdy zaawansowany chip AI, zanim będzie mógł istnieć • $ARM licencjonuje architektury CPU wbudowane w systemy AI w centrach danych, na krawędzi i w urządzeniach mobilnych Fabryki • $TSM to fabryka, która produkuje chipy, na których opiera się cały stos AI • $INTC to strategiczne drugie źródło, które stara się przywrócić zaawansowaną produkcję chipów Sprzęt do fabryk wafli • $ASML jest królem AI, ponieważ każdy chip z zaawansowanego węzła jest budowany przy użyciu jego maszyn litograficznych...