Introductie van GPT-5.3-Codex-Spark, ons ultra-snelle model dat speciaal is gebouwd voor realtime coderen. We rollen het uit als een onderzoeksvoorvertoning voor ChatGPT Pro-gebruikers in de Codex-app, Codex CLI en IDE-extensie.
Codex zal blijven versnellen. We hebben de infrastructuur op het kritieke pad van de agent geoptimaliseerd door de responsstreaming te verbeteren, de sessie-initialisatie te versnellen en belangrijke delen van onze inferentiestack opnieuw te schrijven. Deze verbeteringen zullen de komende weken worden uitgerold over alle modellen in Codex.
Codex-Spark is momenteel alleen tekst-gebaseerd met een contextvenster van 128k. We zullen meer mogelijkheden introduceren - waaronder grotere modellen, langere contextlengtes en multimodale invoer, terwijl we leren van onze eerste productie-implementatie van low-latency infrastructuur en hardware.
We geven een kleine groep API-klanten vroegtijdige toegang tot Codex-Spark om ermee te experimenteren in hun producten, wat ons helpt om de prestaties verder te optimaliseren, voorbij Codex. We zullen de toegang uitbreiden naar meer ChatGPT-gebruikers en API-ontwikkelaars naarmate we meer capaciteit toevoegen.
66