Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
OpenAI hat gpt-oss-safeguard (Forschungs-Vorschau) veröffentlicht, offene Sicherheits-Reasoning-Modelle in zwei Größen: 120B und 20B
TL;DR
Ein reasoning-first Sicherheitstool: Das Modell nimmt eine vom Entwickler bereitgestellte Richtlinie während der Inferenz und verwendet Chain-of-Thought, um Inhalte zu klassifizieren und seine Entscheidung zu erklären.
- Bring-your-own-policy: Wenden Sie jede schriftliche Richtlinie zur Laufzeit an; es ist nicht erforderlich, einen Klassifizierer für jede Regeländerung neu zu trainieren.
- Erklärbare Labels: Das Modell gibt Chain-of-Thought-Reasoning zurück, das Sie überprüfen können, um zu verstehen, warum es Inhalte auf eine bestimmte Weise gekennzeichnet hat.
- Beste Anwendungsfälle: aufkommende oder sich entwickelnde Schäden, hochnuancierte Bereiche und Situationen mit wenigen gekennzeichneten Beispielen.
- Kompromisse: Höhere Rechenleistung und Latenz als traditionelle Klassifizierer; könnte von aufgaben-spezifischen Klassifizierern übertroffen werden, die auf vielen gekennzeichneten Beispielen für komplexe Risiken trainiert wurden.
Lizenz & Download:
- Apache 2.0 (permissiv).
- Modelle sind zum Download von Hugging Face verfügbar.

Top
Ranking
Favoriten

