Ensimmäinen julkaistu akateeminen artikkelini käsitteli Moore'n lakia, ja tällä hetkellä tekoälyn kehitys näyttää samankaltaiselta: Mooren lain eksponentiaalinen kasvu ei ollut yhden teknologian tulosta, vaan monista eri teknologioista vuosikymmenten ajalta, jotka olivat valmiita, kun yksi sirujen valmistustapa epäonnistui. Lain säännöllinen eteneminen toimi koordinoivana toimintona, jonka avulla jatkuvasti muuttuva kilpailijaryhmä joutui luomaan itseään toteuttavan ennustuksen jatkuvasta kyvykkyyden kasvusta. Samoin tekoälyn kehitys on jo kohdannut useita esteitä, jotka on täytynyt voittaa uusilla tekniikoilla ja tutkimuksella (synteettiset datamenetelmät, päättely, uudet käyttötavat RL:lle). Mutta ellet ole sisäpiiriläinen (tai seuraa tekoälyä tarkasti X:ssä), et näe näitä hidasteita: vain tasaista eksponentiaalista edistystä. Ottaen huomioon alan rahamäärän ja lahjakkuuden, odotan, että vaikka esikoulutus tai mikä tahansa törmäisi seinään, näemme koko alan nopean siirtymän yhteen tai useampaan monista muista lähestymistavoista, joita ihmiset kehittelevät. Tämän näkee jo: työstää maailmanmalleja, vaihtoehtoja LLM:ille, uusia koulutusmenetelmiä jne. Jopa vaihtoehtoiset ekosysteemit, jotka panostavat pienten, hienosäädettyjen mallien nousuun jne. Osa näistä tekniikoista tulee startupeilta, toiset kehitetään tekoälylaboratorioissa itsessään. X:n käyttäjät menevät usein yksityiskohtiin, käsittelevät tekoälyä kuin urheilua, kannustavat joukkueita ja lähestymistapoja vastaan. Mutta minkä tahansa kohtuullisen ajan kuluessa on mahdollista, että tekoälyn kehitys näyttää monissa mittareissa sujuvalta eksponentiaalilta kaikille muille.