OpenAI hat gpt-oss-safeguard (Forschungs-Vorschau) veröffentlicht, offene Sicherheits-Reasoning-Modelle in zwei Größen: 120B und 20B TL;DR Ein reasoning-first Sicherheitstool: Das Modell nimmt eine vom Entwickler bereitgestellte Richtlinie während der Inferenz und verwendet Chain-of-Thought, um Inhalte zu klassifizieren und seine Entscheidung zu erklären. - Bring-your-own-policy: Wenden Sie jede schriftliche Richtlinie zur Laufzeit an; es ist nicht erforderlich, einen Klassifizierer für jede Regeländerung neu zu trainieren. - Erklärbare Labels: Das Modell gibt Chain-of-Thought-Reasoning zurück, das Sie überprüfen können, um zu verstehen, warum es Inhalte auf eine bestimmte Weise gekennzeichnet hat. - Beste Anwendungsfälle: aufkommende oder sich entwickelnde Schäden, hochnuancierte Bereiche und Situationen mit wenigen gekennzeichneten Beispielen. - Kompromisse: Höhere Rechenleistung und Latenz als traditionelle Klassifizierer; könnte von aufgaben-spezifischen Klassifizierern übertroffen werden, die auf vielen gekennzeichneten Beispielen für komplexe Risiken trainiert wurden. Lizenz & Download: - Apache 2.0 (permissiv). - Modelle sind zum Download von Hugging Face verfügbar.