Aujourd'hui, j'ai passé la nuit à simuler le prochain GPU de génération Feynman de NVIDIA, prévu pour le 16 mars, et j'ai analysé les véritables intentions de NVIDIA, en compilant un rapport pour les patrons. Rapport approfondi : « La transformation ultime de la puissance de calcul AI - le transfert de paradigme "lumière, stockage, calcul" sous l'architecture Feynman » Date de publication : 1er mars 2026 Actifs clés : $NVIDIA, $SK Hynix, #Samsung, $TSM Taiwan Semiconductor, $AVGO Broadcom, #中际旭创, #新易盛 Thème d'investissement : De "l'extension de puce" à "l'emballage au niveau système (SiP)". Résumé du rapport : Briser les limites physiques dans trois dimensions. Dans le contexte de la conférence GTC 2026, NVIDIA a officiellement établi le chemin d'évolution de Rubin (2026) à Feynman (2028). Son intention stratégique centrale est désormais très claire : à travers l'empilement 3D (SoIC) et la technologie de photonique sur silicium (CPO), forcer les profits qui appartenaient auparavant aux chaînes d'approvisionnement en amont et en aval (stockage, réseau) à être "absorbés" à l'intérieur de l'emballage GPU, réalisant ainsi une transformation de fournisseur de puces à "entrepreneur de systèmes complets". I. Chemin d'évolution des GPU NVIDIA : de "miniaturisation" à "empilement spatial". L'évolution de l'architecture de NVIDIA est entrée dans le jeu physique de l'ère post-Moore : Blackwell (2025) : Le dernier sommet de l'emballage 2.5D, principalement adapté aux modules optiques plug-in de 1,6T. Rubin (2026) : L'année de HBM4. Introduction d'un processus amélioré de 3nm, première tentative d'intégration logique sur le Base Die (base). Feynman (2028) : La forme ultime. Utilisation du processus A16 de TSMC (1,6nm) et de l'alimentation par l'arrière (BSPDN). Innovation clé : Empiler verticalement la SRAM (LPU Dies) au-dessus du GPU. Changement de rôle : Le GPU n'est plus seulement une unité de calcul, mais un système autonome doté d'une "autoroute (CPO)" et d'un "réservoir de grande capacité (3D SRAM)". II. Chemin d'évolution du stockage (HBM & SRAM) : de "détaché" à "symbiotique". 1. Évolution technologique et changement de rôle. HBM4 (2026/2027) : La largeur d'interface passe de 1024 bits à 2048 bits. Le changement le plus crucial est le transfert de pouvoir du Base Die (base logique). Les fabricants de stockage (SK Hynix/Samsung) doivent être profondément liés à $TSM Taiwan Semiconductor pour produire des bases logiques de niveau 5nm. 3D SRAM (2028) : L'architecture Feynman introduit les LPU Dies. Ce cache à large bande passante (80-100 To/s) prendra en charge 70 % des échanges de données de calcul en temps réel, entraînant une dégradation de HBM de "mémoire à accès fréquent" à "réservoir de grande capacité en arrière-plan". 2. Estimation de l'offre et de la demande : un trou noir EB sous une croissance de 40 % des GPU. Avec un taux de croissance annuel composé de 40 % pour les GPU, en ajoutant la multiplication par deux de la capacité HBM par carte (192G \rightarrow 288G \rightarrow 576G) : Demande de 3,63EB en 2026, offre de 2,8EB, écart de 22,9 %. ...