Dieses Papier von der BMW Group und dem führenden Forschungsinstitut Koreas deckt einen blinden Fleck auf, in den fast jedes Unternehmen, das LLMs verwendet, direkt hineinläuft. Wir reden ständig von "Ausrichtung", als wäre es ein universeller Sicherheitsschalter. Das ist es nicht. Das Papier stellt COMPASS vor, ein Framework, das zeigt, warum die meisten KI-Systeme nicht scheitern, weil sie unsicher sind, sondern weil sie nicht mit der Organisation, die sie einsetzt, ausgerichtet sind. Hier ist die zentrale Erkenntnis. LLMs werden normalerweise anhand generischer Richtlinien bewertet: Plattform-Sicherheitsregeln, abstrakte ethische Richtlinien oder Benchmark-ähnliche Ablehnungen. Aber echte Unternehmen arbeiten nicht mit generischen Regeln. Sie arbeiten mit internen Richtlinien: - Compliance-Handbücher - Betriebsleitfäden - Eskalationsverfahren - rechtliche Sonderfälle - markenspezifische Einschränkungen Und diese Regeln sind unordentlich, überlappend, bedingt und voller Ausnahmen. COMPASS wurde entwickelt, um zu testen, ob ein Modell tatsächlich in diesem Durcheinander operieren kann. Nicht, ob es die Richtlinienterminologie kennt, sondern ob es die richtige Richtlinie im richtigen Kontext aus den richtigen Gründen anwenden kann. Das Framework bewertet Modelle anhand von vier Aspekten, die typische Benchmarks ignorieren: ...