.@dylan522p offre un'analisi approfondita sui 3 grandi colli di bottiglia per scalare il calcolo AI: logica, memoria e potenza. E analizza l'economia dei laboratori, degli hyperscalers, delle fonderie e dei produttori di attrezzature per fab. Ho imparato tantissimo su ogni singolo livello dello stack. 0:00:00 – Perché un H100 vale di più oggi rispetto a 3 anni fa 0:24:52 – Nvidia ha assicurato l'allocazione TSMC in anticipo; Google è sotto pressione 0:34:34 – ASML sarà il vincolo numero 1 per la scalabilità del calcolo AI entro il 2030 0:56:06 – Non possiamo semplicemente usare le fab più vecchie di TSMC? 1:05:56 – Quando la Cina supererà l'Occidente nei semiconduttori? 1:16:20 – L'enorme crisi di memoria in arrivo 1:42:53 – Scalare la potenza negli Stati Uniti non sarà un problema 1:55:03 – Le GPU spaziali non si realizzeranno in questo decennio 2:14:26 – Perché non ci sono più fondi hedge che fanno la scommessa sull'AGI? 2:18:49 – TSMC espellerà Apple da N2? 2:24:35 – Rischi dei robot e di Taiwan Cerca il Dwarkesh Podcast su YouTube, Apple Podcasts o Spotify. Buon ascolto!