Presentamos GPT-5.3-Codex-Spark, nuestro modelo ultrarrápido diseñado específicamente para la programación en tiempo real. Lo estamos lanzando como una vista previa de investigación para usuarios de ChatGPT Pro en la app Codex, Codex CLI y la extensión IDE.
Codex seguirá haciéndose más rápido. Hemos optimizado la infraestructura en la ruta crítica del agente mejorando el flujo de respuestas, acelerando la inicialización de sesiones y reescribiendo partes clave de nuestra pila de inferencias. Estas mejoras se desplegarán en todos los modelos de Codex durante las próximas semanas.
Codex-Spark es actualmente solo texto con una ventana de contexto de 128k. Introduciremos más capacidades, incluyendo modelos más grandes, contextos de mayor duración y entrada multimodal a medida que aprendamos de nuestro primer despliegue en producción de infraestructura y hardware de baja latencia.
Estamos dando acceso anticipado a Codex-Spark a un pequeño grupo de clientes de API, para que experimenten con él en sus productos, ayudándonos a seguir optimizando el rendimiento más allá de Codex. Ampliaremos el acceso a más usuarios de ChatGPT y desarrolladores de API a medida que aumentemos la capacidad.
72