.@dylan522p oferă o analiză aprofundată a celor 3 mari blocaje ale scalării calculului AI: logică, memorie și putere. Și trece prin economia laboratoarelor, hyperscalerilor, turnătorilor și producătorilor de echipamente de fabrică. Am învățat o mulțime despre fiecare nivel al stack-ului. 0:00:00 – De ce un H100 valorează mai mult astăzi decât acum 3 ani 0:24:52 – Nvidia a asigurat alocarea TSMC mai devreme; Google este presat 0:34:34 – ASML va fi constrângerea #1 pentru scalarea calculului AI până în 2030 0:56:06 – Nu putem folosi fabricile mai vechi ale TSMC? 1:05:56 – Când va depăși China Occidentul în semifinale? 1:16:20 – Enormul crunch de memorie care vine 1:42:53 – Puterea de scalare în SUA nu va fi o problemă 1:55:03 – GPU-urile spațiale nu se mai întâmplă în acest deceniu 2:14:26 – De ce nu fac mai multe fonduri de hedging tranzacția AGI? 2:18:49 – Va da TSMC afară Apple din N2? 2:24:35 – Roboți și riscul Taiwanului Caută Dwarkesh Podcast pe YouTube, Apple Podcasts sau Spotify. Bucurați-vă!