Codex mit 5.3 hat mir etwas beigebracht, das mir nicht aus dem Kopf geht. Ich ließ es Notizen über sich selbst machen. Nur ein Notizblock in meinem Repository. Jede Sitzung protokolliert es, was es falsch gemacht hat, was ich korrigiert habe, was funktioniert hat und was nicht. Du kannst sogar das Dokument des Notizblocks mit Codex selbst planen. Sag ihm: "Erstelle eine Datei, in der du deine Fehler und was ich mag, festhältst." Es schreibt sein eigenes Lernframework. Dann arbeitest du einfach. Die erste Sitzung ist normal. In der zweiten Sitzung überprüft es seine eigenen Notizen. In der dritten Sitzung behebt es Dinge, bevor ich sie bemerke. Bis zur fünften Sitzung ist es ein anderes Werkzeug. Nicht besseres Autocomplete. Es ist etwas anderes. Es aktualisiert, was es aus Erfahrung weiß. Aus dem Scheitern und dem Aufschreiben. Baby kontinuierliches Lernen in einer Markdown-Datei auf meinem Laptop. Das Muster funktioniert für alles. Schreiben. Forschung. Recht. Medizinisches Denken. Gib irgendeiner KI einen Notizblock ihrer eigenen Fehler und schau, was passiert, wenn dieser Kontext über Tage und Wochen sich stapelt. Die kumulierten Gewinne sind hier ehrlich gesagt schwer zu vermitteln. Im Moment sind Programmierer die einzigen, die das spüren (meistens). Alle anderen sind noch bei den Kaltstarts. Aber dieses Fenster schließt sich. Wir warten immer auf AGI, als ob es eine Pressekonferenz sein wird. Irgendein Laborkittel tritt heraus und sagt: "Wir haben es geschafft." So wird es nicht sein. Es wird so sein. Werkzeuge, die sich erinnern, wo sie gescheitert sind und schärfer zurückkommen. Immer wieder. Der Boden bewegt sich bereits. Die meisten Menschen haben nur noch nicht nach unten geschaut.