Vím, že první instinkt je prezentovat $META zkoumání $GOOGL TPU jako začátek $NVDA cenové eroze moci, ale o to tu nejde. Skutečný příběh je rychlost AI zátěže Meta, když tréninkové cykly Llama, systémy porozumění videu a desítky miliard denních inferenčních volání narážejí na stejný výpočetní strop. Meta už teď míří utratit ~100 miliard dolarů za hardware Nvidia a stále mají omezenou kapacitu. Přidání TPU tyto výdaje nenahradí, ale jen na ně leží. I kdyby Nvidia zdvojnásobila výstup, Meta by stále měla málo výpočetních výkonů. Tak velký je vlastně nedostatek kapacit umělé inteligence.