Jeg vet at den første instinktet er å ramme inn $META utforsking av TPU-er $GOOGL som starten på $NVDA nedbrytning av priskraften, men det er ikke det dette handler om. Den virkelige historien er hastigheten på Metas AI-arbeidsbelastningskurve når Llama-treningssykluser, videoforståelsessystemer og titalls milliarder daglige inferensanrop alle krasjer inn i samme beregningstak. Meta er allerede på vei til å bruke ~100 milliarder dollar på Nvidia-maskinvare, og de har fortsatt begrenset kapasitet. Å legge til TPU-er erstatter ikke det forbruket, men det ligger bare oppå det. Selv om Nvidia doblet produksjonen, ville Meta fortsatt mangle beregning. Så stor er faktisk mangelen på strukturell kapasitet for AI.