OpenAI випустила gpt-oss-safeguard (попередній перегляд досліджень), моделі з відкритою вагою для міркувань безпеки у двох розмірах: 120B та 20B ТЛ; ДОКТОР Інструмент безпеки, орієнтований на міркування: модель використовує політику, надану розробником, на основі висновків і використовує ланцюжок думок для класифікації контенту та пояснення його рішення. - Bring-your-own-policy: застосовуйте будь-яку письмову політику під час виконання; Не потрібно переучувати класифікатор для кожної зміни правил. - Пояснювані мітки: модель повертає міркування на основі ланцюжка думок, які ви можете перевірити, щоб зрозуміти, чому вона позначила контент певним чином. - Найкращі випадки використання: шкода, що виникає або розвивається, домени з дуже тонкими нюансами та ситуації з невеликою кількістю позначених прикладів. - Компроміси: вищі обчислення та затримка, ніж у традиційних класифікаторів; можуть бути перевершені класифікаторами для конкретних завдань, навченими на багатьох мічених прикладах для комплексних ризиків. Ліцензія та завантаження: - Apache 2.0 (дозвільний). - Моделі доступні для завантаження з сайту Hugging Face.