2026 se consolidează în 3 pariuri cu adevărat mari, iar dacă unul eșuează, ar duce la prăbușirea pe termen scurt a bulei 1. Centre de date anthropic, Xai scalează agresiv până la GPU-urile de 1M. ambele plănuiesc să atingă această țintă până în trimestrul al doilea. Modelele rezultate antrenate pe această infrastructură trebuie să confirme că Compute Scaling Law este încă eficientă. altfel, va indica faptul că trebuie să explorăm o nouă arhitectură de model. Acest lucru depinde și de scalarea infrastructurii energetice (Power Shell), deși acest lucru va fi o problemă în următorul deceniu, ca să nu mai vorbim de anul acesta. 2. Memorie anul acesta avem suficientă memorie doar pentru a susține GPU-uri de 15GW, în timp ce hyperscalerele vizează 30-40 în următorii 2 ani. Suntem cam la limită aici – dacă Samsung, $MU sau SK Hynix își strică producția, atunci asta va bloca pariul numărul 1. De asemenea, cel care asigură majoritatea acestei capacități de memorie pentru a crea GPU-uri câștigă cel mai mult în cadrul capacității de producție restrânse, iar acum asta este $NVDA 3. infrastructură mai ieftină și mai eficientă Ultima placă video NVIDIA, Vera Rubin, este de 5 ori mai performantă, dar important este de 4 ori mai eficientă din punct de vedere computațional, ceea ce înseamnă că costurile de inferență au scăzut – inteligență Frontier pentru foarte puțin! Va exista o abundență de calcul disponibil pentru antrenament, dar, mai important, pentru a folosi AI anul acesta, așa că paradoxul Jevons trebuie să se dovedească prin creșterea cererii sale. Dacă acest lucru eșuează, atunci cele două de mai sus se prăbușesc. Din punctul meu de vedere, sunt cel mai puțin îngrijorat de asta – cred că Agent Harnesses și RL-ul post-antrenament vor continua să întărească modelele. Foarte optimist