.@dylan522p gibt einen tiefen Einblick in die 3 großen Engpässe beim Skalieren von KI-Computing: Logik, Speicher und Energie. Und erläutert die Wirtschaftlichkeit von Laboren, Hyperscalern, Foundries und Herstellern von Fertigungsanlagen. Habe eine Menge über jede einzelne Ebene des Stacks gelernt. 0:00:00 – Warum ein H100 heute mehr wert ist als vor 3 Jahren 0:24:52 – Nvidia sicherte sich frühzeitig eine Zuteilung von TSMC; Google wird unter Druck gesetzt 0:34:34 – ASML wird bis 2030 die #1 Einschränkung für das Skalieren von KI-Computing sein 0:56:06 – Können wir nicht einfach die älteren Fabs von TSMC nutzen? 1:05:56 – Wann wird China im Bereich Halbleiter die Westlichen überholen? 1:16:20 – Der enorme bevorstehende Speicherengpass 1:42:53 – Das Skalieren von Energie in den USA wird kein Problem sein 1:55:03 – Raum-GPUs werden in diesem Jahrzehnt nicht realisiert 2:14:26 – Warum machen nicht mehr Hedgefonds den AGI-Handel? 2:18:49 – Wird TSMC Apple aus N2 ausschließen? 2:24:35 – Roboter und Taiwan-Risiko Schaut euch den Dwarkesh-Podcast auf YouTube, Apple Podcasts oder Spotify an. Viel Spaß!