.@dylan522p geeft een diepgaande analyse van de 3 grote knelpunten voor het schalen van AI-rekenkracht: logica, geheugen en energie. En loopt door de economieën van laboratoria, hyperscalers, foundries en fabrikanten van fabrieksapparatuur. Heb een hoop geleerd over elk niveau van de stack. 0:00:00 – Waarom een H100 vandaag de dag meer waard is dan 3 jaar geleden 0:24:52 – Nvidia heeft vroeg een allocatie bij TSMC veiliggesteld; Google wordt onder druk gezet 0:34:34 – ASML zal tegen 2030 de #1 beperking zijn voor het schalen van AI-rekenkracht 0:56:06 – Kunnen we niet gewoon de oudere fabrieken van TSMC gebruiken? 1:05:56 – Wanneer zal China de Westerse landen in halfgeleiders overtreffen? 1:16:20 – De enorme aanstaande geheugencrisis 1:42:53 – Het schalen van energie in de VS zal geen probleem zijn 1:55:03 – Ruimte-GPU's komen dit decennium niet 2:14:26 – Waarom maken niet meer hedgefondsen de AGI-handel? 2:18:49 – Zal TSMC Apple uit N2 zetten? 2:24:35 – Robots en Taiwan-risico Zoek de Dwarkesh Podcast op YouTube, Apple Podcasts of Spotify. Geniet!