2026 konsoliderer seg til tre virkelig store veddemål hvor hvis ett feiler, vil det føre til en kortsiktig kollaps av boblen 1. datasentre Anthropisk, Xai skalerer aggressivt til 1M GPU. begge planlegger å nå det målet innen andre kvartal. De resulterende modellene som er trent på denne infrastrukturen må bekrefte at beregningsskaleringsloven fortsatt er effektiv. ellers vil indikere at vi må utforske en ny modellarkitektur. Dette avhenger også av at energiinfrastrukturen (Power Shell) skaleres, selv om det vil være et problem det neste tiåret, for ikke å snakke om i år. 2. Hukommelse vi har bare nok minne i år til å støtte 15 GW GPU-er, mens hyperskalererne sikter mot 30-40 de neste 2 årene. Vi er ganske nære her – hvis Samsung, $MU eller SK Hynix ødelegger produksjonen sin, vil dette stoppe innsats nummer 1. Dessuten vinner den som sikrer mesteparten av denne minnekapasiteten for å lage GPU-er mest innenfor den begrensede produksjonskapasiteten, og akkurat nå er det $NVDA 3. billigere, mer effektiv infrastruktur Nvidias nyeste GPU, Vera Rubin, er 5 ganger mer ytelseskraftig, men viktigst av alt, 4 ganger mer beregningskrafteffektiv, noe som betyr at slutningskostnadene har stupt – Frontier Intelligence for en smule! Det vil være rikelig med datakraft tilgjengelig for trening, men enda viktigere, bruk AI i år, så Jevons Paradox må bevise seg gjennom økende etterspørsel. Hvis det feiler, kollapser de to ovennevnte. Etter min mening er jeg minst bekymret for denne – jeg tror agentharnesser og RL etter trening vil fortsette å styrke modellene. Veldig optimistisk