Frontier AI-brukstilfellene bruker sannsynligvis omtrent 100 ganger flere tokens enn frontier-brukstilfellene gjorde for et år siden. Vi ser allerede en eksplosjon av kodeagenter som gjør langt mer komplekse og langvarige prosjekter, noe som allerede bruker opp en vanvittig mengde inferenskapasitet. Og dette er en liten prosentandel av det totale kunnskapsarbeidet. Den samme arkitekturen er i ferd med å komme for resten av kunnskapsarbeidet, hvor agenter i praksis vil ha sin egen datamaskin å jobbe med og mulighet til å skrive og kjøre kode for mange oppgaver, og gå gjennom store mengder data for å gjøre jobben sin. Token-bruken for disse agentene vil være vanvittig. Det er i ferd med å bli veldig interessant innen slutningsverdenen.