Ich liebe es, wie ich, als ich sagte, dass GPT5 das Ende der Fahnenstange ist und der Beweis, dass Skalierung nicht mehr funktioniert, auf dieser App allerlei Hass bekam. Ihr könnt zurückgehen und die Tweets finden, sie sind immer noch online. Es war damals sehr klar, dass eine weitere Skalierung nicht wirklich zu einer spürbaren Verbesserung führen würde. Ich sagte es, und ich hatte recht, dass aus einer spieltheoretischen Perspektive, wenn man nicht in einem wissenschaftlichen Wettlauf um die Skalierung des Trainings ist, man seine Einflussinfrastruktur viel effizienter gestalten müsste. Das ist buchstäblich das, was mit GPT5 und 5.1 passiert ist. Sie haben sogar die Möglichkeit abgeschafft, die Qualität des Modells auszuwählen, das man mit 5.1 möchte; jetzt entscheidet OpenAI, wie viel Rechenleistung man verdient. Man sieht jetzt, wie Google, das immer sehr sensibel auf die Kosten des Bereitstellens von Modellen reagiert hat, denn das ist schließlich ihr ganzes Geschäft und ihr Vorteil im Markt, gegen OpenAI konkurriert. Es brauchte Ilya, der herauskam und euch sagte, was jeder das ganze Jahr über wusste. Die Skalierung, wie wir sie vorher gemacht haben, ist tot. Die Nachfrage nach der ganzen Hardware, die für das Training benötigt wird, wird sinken. Aber wenn ihr mir genau gefolgt seid, wusstet ihr, dass ich schon vor der Veröffentlichung von GPT5 die Alarmglocken läutete. Wir befinden uns jetzt im Zyklus der Kommodifizierung; man kann keine 70 % Margen verlangen, man kann nicht darauf wetten, eine Softwarefestung zu haben. Es geht darum, Verfügbarkeit zu haben und Qualität aufrechtzuerhalten, wenn man ein Rohstoffhändler wie Glencore und Trafigura ist. Investiert in die Speicherhersteller, die Festplattendienstleister, die Flash-Jungs, die Glasfaser, den Strom. Matrixmultiplikation ist nicht mehr besonders.