BMW Group ve Kore'nin önde gelen araştırma enstitüsü tarafından ortaya çıkan bu makale, LLM kullanan hemen her işletmenin doğrudan karşılaştığı bir kör noktayı ortaya koyuyor. "Hizalama"dan sürekli bahsediyoruz, sanki evrensel bir güvenlik anahtarıymış gibi. Değil. Makale, çoğu yapay zeka sisteminin neden güvensiz olduklarından değil, onları yerleştiren organizasyonla uyumsuz olduklarından kaynaklanan neden başarısız olduğunu gösteren COMPASS çerçevesini tanıtıyor. İşte temel içgörüler. LLM'ler genellikle genel politikalara göre değerlendirilir: platform güvenlik kuralları, soyut etik yönergeleri veya kıyaslama tarzı reddler. Ama gerçek şirketler genel kurallarla çalışmaz. İç politikalarla yürürler: - uyum kılavuzları - operasyonel oyun kitapları - yükseltme prosedürleri - hukuki kenar davaları - markaya özgü kısıtlamalar Ve bu kurallar karmaşık, örtüşen, koşullu ve istisnalarla dolu. COMPASS, bir modelin gerçekten o karmaşada çalışıp çalışamayacağını test etmek için tasarlandı. Politika dilini bilip bilmediği değil, doğru politikayı doğru bağlamda, doğru sebeple uygulayıp uygulayamayacağı. Çerçeve, modelleri tipik kıyaslamaların göz ardı ettiği dört şeye göre değerlendirir: ...