我知道第一反應是將 $META 探索 $GOOGL TPUs 視為 $NVDA 價格權力侵蝕的開始,但這並不是重點。 真正的故事是 Meta 的 AI 工作負載曲線的速度,因為 Llama 訓練週期、視頻理解系統和每天數十億次的推理調用都撞上了同一個計算上限。 Meta 已經在計劃花費約 1000 億美元在 Nvidia 硬體上,但他們仍然受到產能限制。添加 TPUs 並不會取代這筆支出,而只是疊加在上面。即使 Nvidia 的產量翻倍,Meta 仍然會在計算上短缺。 這就是結構性 AI 產能短缺實際上有多嚴重。