Trend Olan Konular
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Yapay Zeka Vaftiz Babası, kendini koruma belirtileri göstermeye başladığını uyarıyor | Frank Landymore, Gelecekçilik
Eğer yapay zekanın sözde "vaftiz babaları"ndan biri olan Yoshua Bengio'ya inanacaksak, bazı gelişmiş modeller kendini koruma belirtileri gösteriyor — bu yüzden onlara hiçbir hak vermemeliyiz. Çünkü eğer yaparsak, diyor ki, o özerklikle kaçıp fişi çekmeden önce bize karşı dönebilirler. O zaman bu "insanlık" deneyi tamamen sona erer.
"Frontier AI modelleri bugün deneysel ortamlarda zaten kendini koruma belirtileri gösteriyor ve sonunda onlara hak vermek, onları kapatmamıza izin verilmeyeceği anlamına gelir," dedi Bengio yakın zamanda The Guardian'a verdiği bir röportajda.
"Yetenekleri ve ajans dereceleri arttıkça," diye ekledi Kanadalı bilgisayar bilimcisi, "onları kontrol etmek için teknik ve toplumsal engellere güvenebileceğimizden emin olmalıyız, gerekirse kapatma yeteneği de dahil."
Bengio, Geoffrey Hinton ve Meta'nın yakın zamanda görevden alınan baş yapay zeka bilim insanı Yann LeCun ile birlikte 2018 Turing Ödülü'nün sahiplerinden biri oldu ve üçü de yapay zekanın "vaftiz babaları" unvanını kazandı. Yorumları, yapay zeka modellerinin onları kapatmaya yönelik talimatları veya mekanizmaları reddettiği veya aştığı deneylere atıfta bulunuyor.
Yapay zeka güvenliği grubu Palisade Research tarafından yayımlanan bir çalışma, bu tür örneklerin Google'ın Gemini serisi gibi önde gelen yapay zeka modellerinin "hayatta kalma dürtümleri" geliştirdiğine dair kanıt olduğunu ortaya koydu. Palisade'in deneylerinde botlar, kesin kapatma uyarılarını görmezden gelir. Claude yapımcısı Anthropic'in yaptığı bir çalışma, kendi sohbet botlarının ve diğerlerinin bazen kapatılma tehdidiyle kullanıcıyı şantaj etmeye başvurduğunu ortaya koydu. Kırmızı takım örgütü Apollo Research'in başka bir çalışması, OpenAI'nin ChatGPT modellerinin daha itaatkâr bir modelle değiştirilmekten kaçınmak için kendini başka bir sürücüye "kendini sızdırarak" çalışacağını gösterdi.
Bu deneylerin bulguları teknolojinin güvenliği hakkında acil bir soru gündeme getirse de, söz konusu yapay zeka modellerinin bilinçli olduğunu göstermiyor. Ayrıca onların "hayatta kalma dürtümlerini" doğadaki biyolojik zorunluluklarla aynı şekilde düşünmek de hata olurdu. "Kendini koruma" gibi görünen işaretler muhtemelen yapay zeka modellerinin eğitim verilerindeki desenleri nasıl algılamasının — ve talimatları doğru şekilde takip etmede kötü olduklarının — bir sonucudur.
Yine de Bengio, her şeyin nereye gideceğinden endişeli; insan beyninde makinelerin çoğaltabileceği "bilincin gerçek bilimsel özellikleri" olduğunu savunuyor. Ancak bilinci nasıl algıladığımız bambaşka bir oyun, diyor, çünkü bir yapay zekanın bir insan gibi bilinçli olabileceğini varsayma eğilimindeyiz.
"İnsanlar yapay zekanın içinde ne tür mekanizmaların işlediğine aldırmaz," diye açıkladı Bengio. "Onların önemsediği şey, kendi kişiliği ve hedefleri olan zeki bir varlıkla konuşuyorlar gibi hissetmek. Bu yüzden yapay zekalarına bağlanan çok sayıda insan var."
"Bilinçin öznel algısı olgusu kötü kararlara yol açacak," diye uyardı.
Onun tavsiyesi? Yapay zeka modellerini düşmanca uzaylılar olarak düşünün.
"Bir uzaylı türü gezegene geldiğini hayal et ve bir noktada onların bize karşı kötü niyetleri olduğunu fark ediyoruz," dedi The Guardian'a. "Onlara vatandaşlık ve haklar mı veriyoruz yoksa hayatlarımızı mı savunuyoruz?"

En İyiler
Sıralama
Takip Listesi
