Épisode Semi Doped #3 : Nvidia CES 2026 - Où était le commutateur Infiniband ? "6 puces" au lieu de 7 - Panique des investisseurs non éduqués et le toucher de Midas de Jensen - La démo de DGX Spark (GB10) était incroyable. MacBook en tant que client léger, DGX Spark en tant que serveur AI local. Peut-être que DGX Spark est le vrai PC AI ? - La station DGX (GB300) déplace le calcul AI de pointe du cloud et le rend accessible sur site dans l'entreprise. Toujours 1600W cependant (et peut-être refroidi par liquide ?) donc peut-être pas à votre bureau ? - Le parallèle historique est les mainframes à plus de 1M$ contre les mini-ordinateurs à 100K$, élargissant le TAM de calcul plutôt que de remplacer l'utilisation du cloud. - Le stockage de mémoire contextuelle élève les SSD, permettant un déchargement massif de cache KV au-delà de HBM et DRAM. Une technologie similaire existe déjà (Supermicro JBOF) - Qu'est-ce que le DPU ? Calcul dans le réseau - Le nouveau processeur Vera met en avant l'importance croissante des CPU pour les charges de travail agentiques grâce à un nombre de cœurs plus élevé, SMT et une grande capacité LPDDR. 00:00 Points forts du CES et présentation de Nvidia 02:36 DGX Spark : L'avenir des PC AI 05:00 Consommation d'énergie et praticité du matériel AI 07:43 L'évolution du calcul AI : Des mainframes aux ordinateurs de bureau 10:28 Alpamayo : La plateforme de véhicule autonome de Nvidia 18:10 Plateforme Vera Rubin : Une nouvelle ère dans le calcul AI 23:11 Le rôle évolutif des CPU dans les charges de travail AI 26:26 Innovations en gestion de la mémoire et stockage contextuel 29:39 Avancées dans la technologie GPU et performance 35:00 L'importance des DPUs dans l'infrastructure AI 38:28 Points forts du discours d'ouverture de NVIDIA et réactions du marché 44:20 Position d'AMD et orientations futures dans l'AI @vikramskr @theaustinlyons