.@dylan522p ger en djupdykning i de tre stora flaskhalsarna för att skala AI-beräkning: logik, minne och kraft. Och går igenom ekonomin kring laboratorier, hyperskalerare, gjuterier och tillverkare av fabriksutrustning. Jag lärde mig massor om varje nivå i stacken. 0:00:00 – Varför en H100 är värd mer idag än för tre år sedan 0:24:52 – Nvidia säkrade TSMC-allokering tidigt; Google blir pressad 0:34:34 – ASML kommer att vara den #1 begränsningen för AI-beräkningsskalning till 2030 0:56:06 – Kan vi inte bara använda TSMC:s äldre fabriker? 1:05:56 – När kommer Kina att överträffa väst i semifinalen? 1:16:20 – Den enorma minneskrisen för inkommande minne 1:42:53 – Skalningskraft i USA kommer inte att vara ett problem 1:55:03 – Rymd-GPU:er kommer inte att hända detta decennium 2:14:26 – Varför gör inte fler hedgefonder AGI-handeln? 2:18:49 – Kommer TSMC att sparka ut Apple från N2? 2:24:35 – Robotar och risk för Taiwan Sök på Dwarkesh Podcast på YouTube, Apple Podcasts eller Spotify. Njut!