Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
.@dylan522p legt uit hoe we weten wat de harde bovengrens is voor de hoeveelheid rekencapaciteit die jaarlijks kan worden geproduceerd tegen 2030: ongeveer 200 GW/jaar.
Dat is een gek getal (er is momenteel ongeveer 20 GW aan AI in de wereld ingezet), maar het is lang niet genoeg om te voldoen aan de ambities van Sam/Elon/Dario/Demis.
Veel dingen in de toeleveringsketen kunnen in 4 jaar worden opgeschaald, inclusief dingen die andere mensen als knelpunten beschouwen, zoals datacentervermogen of fab schoonruimtes.
Maar het ding dat inflexibel is over die tijdlijn is het aantal EUV-tools.
Dylan voorspelt dat de productie van ASML's EUV-tools zal opschalen van 60 per jaar nu tot ongeveer 100 per jaar tegen het einde van het decennium - wat betekent dat er iets van 700 totale machines in 2030 draaien.
Voor een fab om een GW aan de Rubin-chips te maken die NVIDIA later dit jaar inzet, moet het 55.000 3nm-wafers, 6.000 5nm-wafers en 170.000 geheugenchips maken.
Elke 3nm-wafer heeft ongeveer 20 EUV-passes nodig, dus ongeveer 1,1 miljoen passes per GW. Als je de 5nm en geheugen erbij optelt, heb je twee miljoen passes nodig.
Elke tool kan 75 passes per uur doen, dus met 90% uptime is dat ongeveer 600k passes per jaar - dus een enkele machine kan minder dan een derde van een GW in een jaar maken.
Dus in 2030 hebben we 700 totale machines, elk die ongeveer 0,3 GW per jaar produceert, wat betekent dat we 200 GW aan rekencapaciteit per jaar kunnen produceren.
Dat is veel. Maar Sam Altman wil een gigawatt per week tegen het einde van het decennium. Anthropic en Google willen ongeveer hetzelfde. En Elon wil elk jaar 100 GW de ruimte in brengen.
Een van deze spelers zou misschien kunnen krijgen wat ze nodig hebben, maar niet allemaal.
Boven
Positie
Favorieten
