Człowiek spożywa około 2000 kalorii dziennie. Przez 20 lat to w przybliżeniu 17 000 kWh całkowitej energii żywnościowej. Szkolenie GPT-4 zużyło szacunkowo 50 GWh energii elektrycznej. To równowartość energii „szkoleniowej” 3000 ludzi na jedną sesję modelu. A GPT-4 już nie istnieje. OpenAI wycofało GPT-4o z ChatGPT 13 lutego. Model, którego trening kosztował 50 GWh, miał mniej niż dwa lata statusu flagowego przed zastąpieniem. Człowiek, którego „szkolono” przez 20 lat za 17 000 kWh, produkuje wyniki ekonomiczne przez następne 40 do 60 lat. Okres amortyzacji GPT-4 był krótszy niż leasing samochodu. Teraz spójrz na to, co go zastąpiło. GPT-5.2, wydany w grudniu 2025 roku, jest obecnym domyślnym modelem OpenAI. Seria GPT-5 zużywa szacunkowo 18 Wh na przeciętne zapytanie według AI Lab Uniwersytetu Rhode Island, do 40 Wh na rozszerzone rozumowanie. To 8,6 razy więcej energii elektrycznej na odpowiedź niż GPT-4. Przy 2,5 miliarda zapytań dziennie w ChatGPT i GPT-5.2 jako domyślnym modelu, matematyka dotycząca wnioskowania staje się oszałamiająca. Nawet przy uśrednionej wartości znacznie poniżej 18 Wh, mówimy o codziennym zużyciu energii elektrycznej, które mogłoby zasilić ponad milion amerykańskich gospodarstw domowych. To jest to, co tak naprawdę robi Altman. OpenAI osiągnęło 13 miliardów dolarów rocznych przychodów, ale wciąż nie jest rentowne. Muszą sprawić, abyś myślał o zużyciu energii przez AI jako naturalnym i nieuniknionym, tak jak myślisz o karmieniu dziecka, ponieważ alternatywne ujęcie to to, że spalają wystarczająco dużo energii elektrycznej, aby dorównać małym krajom, podczas gdy ścigają się w budowie centrów danych Stargate o mocy 1 gigawata. Analogia do jedzenia sprawia, że koszty energii wydają się biologiczne i nieuniknione, zamiast tym, czym są: wyborem inżynieryjnym i biznesowym, który rośnie z każdą generacją modelu. Porównanie brzmi sprytnie na rozmowie przy kominku w Indiach. Rozpada się w momencie, gdy zaczynasz liczyć.