Als wir Claude Opus 4.5 veröffentlichten, wussten wir, dass zukünftige Modelle nahe an unserer AI-Sicherheitsstufe 4-Schwelle für autonome KI-Forschung und -Entwicklung liegen würden. Daher haben wir uns verpflichtet, Berichte über Sabotagerisiken für zukünftige Grenzmodelle zu erstellen. Heute halten wir dieses Versprechen für Claude Opus 4.6.
Anstatt schwierige Entscheidungen über verschwommene Schwellenwerte zu treffen, haben wir uns entschieden, proaktiv die höhere ASL-4-Sicherheitsanforderung zu erfüllen, indem wir den Bericht entwickelt haben, der die Risiken der KI-F&E von Opus 4.6 detaillierter bewertet. Lesen Sie den Sabotagerisiko-Bericht hier:
716