.@dylan522p forklarer hvordan vi kjenner den harde øvre grensen for hvor mye datakraft som kan produseres årlig innen 2030: rundt 200 GW/år. Det er et vanvittig tall (det er omtrent 20 GW med AI utplassert i verden akkurat nå), men det er langt fra nok til å tilfredsstille Sam/Elon/Dario/Demis' ambisjoner. Mange ting i forsyningskjeden kan skaleres opp over 4 år, inkludert ting som andre mener er flaskehalser, som strøm i datasenteret eller fabrikkens renrom. Men det som er ufleksibelt i den tidslinjen, er antallet EUV-verktøy. Dylan spår at produksjonen av ASMLs EUV-verktøy vil øke fra 60 per år nå til omtrent 100 per år innen utgangen av tiåret – noe som betyr omtrent 700 maskiner i drift totalt i 2030. For at en fabrikk skal lage en GW verdt av Rubin-brikkene som NVIDIA lanserer senere i år, må den lage 55 000 3nm-wafers, 6 000 5nm-wafers og 170 000 minnewafers. Hver 3 nm wafer trenger omtrent 20 EUV-passeringer, altså omtrent 1,1 millioner passeringer per GW. Legg til 5nm og minne, og du trenger to millioner pass. Hvert verktøy kan gjøre 75 passeringer per time, så med 90 % oppetid er det rundt 600 000 passeringer per år – så en enkelt maskin kan lage mindre enn en tredjedel av en GW i året. Så i 2030 har vi totalt 700 maskiner, hver med rundt 0,3 GW i året, noe som betyr at vi kan produsere 200 GW compute i året. Det er mye. Men Sam Altman vil ha en gigawatt i uka innen utgangen av tiåret. Anthropic og Google vil ønske omtrent det samme. Og Elon vil sette 100 GW i rommet hvert år. Hvilken som helst av disse spillerne kan kanskje få det de trenger, men ikke alle.