OpenAI a publié gpt-oss-safeguard (aperçu de recherche), des modèles de raisonnement de sécurité à poids ouverts en deux tailles : 120B et 20B TL;DR Un outil de sécurité axé sur le raisonnement : le modèle prend une politique fournie par le développeur lors de l'inférence et utilise un raisonnement en chaîne pour classifier le contenu et expliquer sa décision. - Apportez votre propre politique : appliquez n'importe quelle politique écrite à l'exécution ; pas besoin de réentraîner un classificateur pour chaque changement de règle. - Étiquettes explicables : le modèle renvoie un raisonnement en chaîne que vous pouvez inspecter pour comprendre pourquoi il a étiqueté le contenu d'une certaine manière. - Meilleurs cas d'utilisation : dommages émergents ou évolutifs, domaines très nuancés et situations avec peu d'exemples étiquetés. - Compromis : calcul et latence plus élevés que les classificateurs traditionnels ; peut être surpassé par des classificateurs spécifiques à la tâche entraînés sur de nombreux exemples étiquetés pour des risques complexes. Licence et téléchargement : - Apache 2.0 (permissif). - Modèles disponibles en téléchargement sur Hugging Face.