Wir stellen GPT-5.3-Codex-Spark vor, unser ultraschnelles Modell, das speziell für das Echtzeit-Coding entwickelt wurde. Wir führen es als Forschungs-Vorschau für ChatGPT Pro-Nutzer in der Codex-App, Codex-CLI und IDE-Erweiterung ein.
Codex wird weiterhin schneller werden. Wir haben die Infrastruktur auf dem kritischen Pfad des Agenten optimiert, indem wir das Streaming der Antworten verbessert, die Sitzungsinitialisierung beschleunigt und wichtige Teile unseres Inferenz-Stacks neu geschrieben haben. Diese Verbesserungen werden in den nächsten Wochen auf alle Modelle in Codex ausgerollt.
Codex-Spark ist derzeit nur textbasiert mit einem Kontextfenster von 128k. Wir werden weitere Funktionen einführen – einschließlich größerer Modelle, längerer Kontextlängen und multimodaler Eingaben, während wir aus unserem ersten Produktionsbetrieb von latenzarmer Infrastruktur und Hardware lernen.
Wir geben einer kleinen Gruppe von API-Kunden frühzeitigen Zugang zu Codex-Spark, um damit in ihren Produkten zu experimentieren, was uns hilft, die Leistung über Codex hinaus weiter zu optimieren. Wir werden den Zugang für mehr ChatGPT-Nutzer und API-Entwickler erweitern, während wir mehr Kapazität hinzufügen.
63