GPT-5.2 dan GPT-5.2-Codex sekarang 40% lebih cepat. Kami telah mengoptimalkan tumpukan inferensi kami untuk semua pelanggan API. Model yang sama. Bobot yang sama. Latensi yang lebih rendah.