Vi introduserer GPT-5.3-Codex-Spark, vår ultraraske modell laget spesielt for sanntidskoding. Vi ruller det ut som en forskningsforhåndsvisning for ChatGPT Pro-brukere i Codex-appen, Codex CLI og IDE-utvidelsen.
Codex vil fortsette å bli raskere. Vi har optimalisert infrastrukturen på agentens kritiske vei ved å forbedre responsstrømming, akselerere øktinitialisering og omskrive viktige deler av vår inferensstakk. Disse forbedringene vil rulles ut på alle modeller i Codex i løpet av de neste ukene.
Codex-Spark er for øyeblikket kun tekstbasert med et kontekstvindu på 128k. Vi vil introdusere flere muligheter – inkludert større modeller, lengre kontekstlengder og multimodal input etter hvert som vi lærer fra vår første produksjonsimplementering av lavlatens-infrastruktur og maskinvare.
Vi gir en liten gruppe API-kunder tidlig tilgang til Codex-Spark for å eksperimentere med det i produktene sine, noe som hjelper oss å fortsette å optimalisere ytelsen utover Codex. Vi vil utvide tilgangen til flere ChatGPT-brukere og API-utviklere etter hvert som vi legger til mer kapasitet.
52