.@dylan522p beskriver hur vi vet den hårda övre gränsen för hur mycket beräkning som kan produceras årligen till 2030: runt 200 GW/år. Det är en galen siffra (det finns ungefär 20 GW AI utplacerad i världen just nu), men det är långt ifrån tillräckligt för att tillfredsställa Sam/Elon/Dario/Demis ambitioner. Många saker i leveranskedjan kan skalas upp under fyra år, inklusive saker som andra anser vara flaskhalsar, som datacenterström eller fabriksrenrum. Men det som är oflexibelt under den tidslinjen är antalet EUV-verktyg. Dylan förutspår att produktionen av ASML:s EUV-verktyg kommer att öka från 60 per år nu till cirka 100 per år vid decenniets slut – vilket innebär ungefär 700 maskiner totalt i drift år 2030. För att en fabrik ska kunna tillverka Rubin-chipen värda en GW som NVIDIA lanserar senare i år, behöver den tillverka 55 000 3nm-wafers, 6 000 5nm-wafers och 170 000 minneswafers. Varje 3nm-wafer behöver ungefär 20 EUV-pass, alltså cirka 1,1 miljoner pass per GW. Lägger man till 5nm och minne behöver man två miljoner pass. Varje verktyg kan göra 75 pass per timme, så med 90 % drifttid är det runt 600 000 pass per år – så en enskild maskin kan producera mindre än en tredjedel av en GW på ett år. Så år 2030 har vi totalt 700 maskiner, var och en med cirka 0,3 GW per år, vilket betyder att vi kan producera 200 GW beräkning per år. Det är mycket. Men Sam Altman vill ha en gigawatt i veckan innan decenniets slut. Anthropic och Google kommer att vilja ha ungefär samma sak. Och Elon vill sätta 100 GW i rymden varje år. Någon av dessa spelare kan kanske få det de behöver, men inte alla.