Semi Doped Episode #3: Nvidia CES 2026 - Wo war der Infiniband-Switch? "6 Chips" statt 7 - Ungebildete Investorenpanik und Jensens Midas-Berührung - Die DGX Spark (GB10) Demo war großartig. MacBook als der dünne Client, DGX Spark als der lokale AI-Server. Vielleicht ist DGX Spark der echte AI-PC? - Die DGX Station (GB300) bringt die Frontier-AI-Berechnungen aus der Cloud und macht sie vor Ort im Unternehmen zugänglich. Immer noch 1600W jedoch (und vielleicht flüssigkeitsgekühlt?) also vielleicht nicht an deinem Schreibtisch? - Die historische Parallele sind $1M+ Großrechner vs. $100K Minicomputer, die den Compute TAM erweitern, anstatt die Cloud-Nutzung zu verdrängen. - Kontextspeicher hebt SSDs hervor und ermöglicht massive KV-Cache-Offload über HBM und DRAM hinaus. Ähnliche Technologie existiert bereits (Supermicro JBOF) - Was ist die DPU? Berechnungen im Netzwerk - Die neue Vera-CPU hebt die wachsende Bedeutung von CPUs für agentische Workloads durch höhere Kernzahlen, SMT und große LPDDR-Kapazitäten hervor. 00:00 CES-Highlights und Nvidias Präsentation 02:36 DGX Spark: Die Zukunft der AI-PCs 05:00 Stromverbrauch und Praktikabilität von AI-Hardware 07:43 Die Evolution der AI-Berechnungen: Von Großrechnern zu Desktops 10:28 Alpamayo: Nvidias Plattform für autonome Fahrzeuge 18:10 Vera Rubin Plattform: Eine neue Ära im AI-Computing 23:11 Die sich entwickelnde Rolle von CPUs in AI-Workloads 26:26 Speicherverwaltung und Innovationen im Kontextspeicher 29:39 Fortschritte in der GPU-Technologie und -Leistung 35:00 Die Bedeutung von DPUs in der AI-Infrastruktur 38:28 NVIDIAs Keynote-Highlights und Marktreaktionen 44:20 AMDs Position und zukünftige Richtungen in der AI @vikramskr @theaustinlyons