Presentiamo GPT-5.3-Codex-Spark, il nostro modello ultra-veloce progettato per la programmazione in tempo reale. Lo stiamo lanciando come anteprima di ricerca per gli utenti di ChatGPT Pro nell'app Codex, Codex CLI e nell'estensione IDE.
Codex continuerà a diventare più veloce. Abbiamo ottimizzato l'infrastruttura sul percorso critico dell'agente migliorando lo streaming delle risposte, accelerando l'inizializzazione delle sessioni e riscrivendo parti chiave del nostro stack di inferenza. Questi miglioramenti verranno implementati su tutti i modelli di Codex nelle prossime settimane.
Codex-Spark è attualmente solo testo con una finestra di contesto di 128k. Introdurremo ulteriori funzionalità, inclusi modelli più grandi, lunghezze di contesto più lunghe e input multimodali man mano che impariamo dal nostro primo deployment in produzione di infrastrutture e hardware a bassa latenza.
Stiamo dando a un piccolo gruppo di clienti API accesso anticipato a Codex-Spark per sperimentarlo nei loro prodotti, aiutandoci a continuare a ottimizzare le prestazioni oltre Codex. Espanderemo l'accesso a più utenti di ChatGPT e sviluppatori API man mano che aggiungiamo ulteriore capacità.
60