Présentation de GPT-5.3-Codex-Spark, notre modèle ultra-rapide conçu pour le codage en temps réel. Nous le déployons en tant qu'aperçu de recherche pour les utilisateurs de ChatGPT Pro dans l'application Codex, Codex CLI et l'extension IDE.
Codex continuera à s'accélérer. Nous avons optimisé l'infrastructure sur le chemin critique de l'agent en améliorant le streaming des réponses, en accélérant l'initialisation des sessions et en réécrivant des parties clés de notre pile d'inférence. Ces améliorations seront déployées sur tous les modèles de Codex au cours des prochaines semaines.
Codex-Spark est actuellement uniquement textuel avec une fenêtre de contexte de 128k. Nous introduirons plus de capacités – y compris des modèles plus grands, des longueurs de contexte plus longues et des entrées multimodales à mesure que nous apprendrons de notre premier déploiement en production d'infrastructure et de matériel à faible latence.
Nous offrons à un petit groupe de clients API un accès anticipé à Codex-Spark pour l'expérimenter dans leurs produits, ce qui nous aide à continuer d'optimiser les performances au-delà de Codex. Nous élargirons l'accès à plus d'utilisateurs de ChatGPT et de développeurs API à mesure que nous ajouterons plus de capacité.
75