Trend Olan Konular
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Neden Yapay Zeka Ajanları Zaman ve Bağlamda Başarısız Oluyor ve Kötü Eğitim Verileri Durumu Nasıl Kötüleştiriyor!
Eleştirel yeni bir makale ciddi bir bakış açısı sunuyor: çoğu yapay zeka ajanı kullanıcı talimatlarını yanlış anlamaları nedeniyle değil, zamanı ve bağlamı temelde yanlış anladıkları için tehlikeli hale geliyor.
Temel sorun açıkça gösterilmiştir:
"Mikrodalgayı aç" gibi bir işlem sadece içinde metal yoksa güvenlidir. Statik kurallar ve belirsiz prompt tabanlı uyarılar bunu tespit edemez. Birçok tehlike, tek bir eylemden değil, bir sekansın ocağı açmanın sorun olmadığını gösterir; Açıp sonra kapatmayı unutmak da öyle değil.
Önerilen çözüm olan RoboSafe, çift yönlü akıl yürütme yapan çalışma zamanı koruma korkulukları sunar:
• İleriye doğru akıl yürütme, bir eyleme izin vermeden önce mevcut görsel sahne ve nesne durumlarını inceler.
•Geriye dönük akıl yürütme, tamamlanmamış yükümlülükleri tespit etmek için yapılan son eylemleri gözden geçirir (örneğin, ajanı daha önce etkinleştirdiği bir cihazı kapatmaya zorlamak).
Güvenlik kısıtlamaları, güvenilmez doğal dil istemleri yerine çalıştırılabilir mantık doğrulanabilir kod önlemleri olarak ifade edilir.
Deneyler, RoboSafe'in tehlikeli eylemleri %36,8 azalttığını ve neredeyse tüm görev performansını korurken, prompt tabanlı ve statik yöntemleri geride bıraktığını ve hatta fiziksel robotik donanımda jailbreak girişimlerine karşı direnç gösterdiğini gösteriyor.
Daha derin bir sonuç kaçınılmaz: Ajan güvenliği eğitim zamanında tam olarak sağlanamaz. Gerçek dünyada dağıtım, zamansal dizileri ve durumsal bağlamı gerçekten anlayan aktif çalışma zamanı izleme gerektirir.
Peki neden günümüz modelleri baştan itibaren zaman ve bağlamla bu kadar derin bir mücadele ediyor?
Artan bir kanıt miktarı, veri kalitesini doğrudan birincil suçlu olarak gösteriyor.
Son çalışmalar, ilaç güvenliğinde NHS destekli LLM'lerin değerlendirilmesi de dahil olmak üzere, anlamlı bir desen ortaya koymaktadır: modeller potansiyel sorunları tespit etmede mükemmel hassasiyet elde etmiş ancak doğru müdahaleyi sadece %46,9 oranında önermiştir.
Önemli olarak, başarısızlıkların %86'sı bilgi eksikliğinden veya halüsinasyonlardan değil, hasta hedeflerine uyum sağlamadan kuralları katı şekilde uygulayan bağlamsal akıl yürütme hataları, gerçek dünya iş akışlarını yanlış anlama veya belirsizlik nedeniyle aşırı özgüvenli davranmaktan kaynaklanıyordu.
Bu zayıflık alanlar arasında tekrar ediyor. Modeller izole desen eşleştirmede üstündür ancak zaman, niyet ve sonuçların incelikli, konumlandırılmış farkındalığı gerektirdiğinde tökezlemektedir.
...

En İyiler
Sıralama
Takip Listesi
