OpenAI merilis gpt-oss-safeguard (pratinjau penelitian), model penalaran keselamatan bobot terbuka dalam dua ukuran: 120B dan 20B TL; DR Alat keamanan yang mengutamakan penalaran: model ini mengambil kebijakan yang disediakan pengembang pada kesimpulan dan menggunakan rantai pemikiran untuk mengklasifikasikan konten dan menjelaskan keputusannya. - Bawa kebijakan Anda sendiri: terapkan kebijakan tertulis apa pun saat runtime; Tidak perlu melatih ulang pengklasifikasi untuk setiap perubahan aturan. - Label yang dapat dijelaskan: model mengembalikan penalaran rantai pemikiran yang dapat Anda periksa untuk memahami mengapa ia memberi label konten dengan cara tertentu. - Kasus penggunaan terbaik: bahaya yang muncul atau berkembang, domain yang sangat bernuansa, dan situasi dengan sedikit contoh berlabel. - Pengorbanan: komputasi dan latensi yang lebih tinggi daripada pengklasifikasi tradisional; mungkin dikalahkan oleh pengklasifikasi khusus tugas yang dilatih pada banyak contoh berlabel untuk risiko kompleks. Lisensi & unduh: - Apache 2.0 (permisif). - Model tersedia untuk diunduh dari Hugging Face.