2026 konsolideras till tre riktigt stora satsningar där ett misslyckande skulle leda till en kortsiktig kollaps av bubblan 1. datacenter Antropisk, Xai skalar aggressivt till 1 M GPU:er. båda planerar att nå det målet till Q2. De resulterande modellerna som tränas på denna infrastruktur måste bekräfta att beräkningslagen fortfarande är effektiv. annars kommer det att indikera att vi behöver utforska en ny modellarkitektur. Detta är också beroende av att energiinfrastrukturen (Power Shell) skalas upp, även om det kommer att vara ett problem under det kommande decenniet, än mindre i år. 2. minne vi har bara tillräckligt med minne i år för att stödja 15GW GPU:er medan hyperscalers siktar på 30-40 under de kommande två åren. Vi är ganska nära här – om Samsung, $MU eller SK Hynix sabbar sin produktion så kommer detta att stoppa vad nummer 1. Dessutom vinner den som säkrar majoriteten av denna minneskapacitet för att skapa GPU:er mest inom den begränsade produktionskapaciteten, och just nu är det $NVDA 3. billigare, mer effektiv infrastruktur Nvidias senaste GPU Vera Rubin är fem gånger mer presterande men viktigt nog fyra gånger mer beräkningseffektivt vilket betyder att slutledningskostnaderna har sjunkit – Frontier Intelligence för en slant! Det kommer att finnas ett överflöd av datorkraft tillgänglig för träning men ännu viktigare att använda AI i år, så Jevons paradox måste bevisa sig genom ökande efterfrågan. Om det misslyckas kollapsar de två ovanstående. Enligt mig är jag minst orolig för den här – jag tror att agentselar och postträning RL kommer att fortsätta stärka modellerna. Mycket optimistiskt