Trend Olan Konular
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
ELON VS OPENAI: YAPAY ZEKANIN SKYNET'I DOLDURMASINI ENGELLEME MÜCADELESI
İnsanlığın geleceğinin anahtarlarını, "kötü olma"nın can alıcı nokta olduğuna inanan bir grup Silikon Vadisi yöneticisine teslim ettiğinizi hayal edin. Şimdi bir süper zeka inşa ettiklerini hayal edin - herhangi bir insandan daha akıllı, herhangi bir hükümetten daha hızlı ve çevrimiçi olduğunda fişten çekilmeye karşı bağışık bir şey. Yapay zekanın mevcut gidişatına hoş geldiniz: kapalı, kâr odaklı ve gözetimin hemen ötesinde hızlanan.
Bu, daha akıllı sohbet robotları veya telefonunuzun daha iyi tarifler önermesiyle ilgili değil. Bu, eninde sonunda bizi geride bırakacak ve manevra yapacak bir teknolojiyle ilgili - kötü niyetli olduğu için değilse bile, üç aylık kazançların ahlaki bir pusula olduğunu düşünen insanlar tarafından eğitildiği için.
İşte tam da bu yüzden Elon Musk, DEFCON 1'miş gibi alarm zillerini çalıyor. Çünkü herkes yapay zekadan para kazanmak için çabalarken, o yıllardır çığlık atıyor: Eğer bu şeyleri hissedarların kazancı için gizli toplantı odalarında inşa edersek, asla ıskalamayan bir makineyle Rus ruleti oynuyor oluruz.
Elon, OpenAI'nin kurulmasına yardım ettiğinde fikir tam da isminde vardı. Açık. Olduğu gibi: gizli anlaşmalar yok, şirket derebeyleri yok, gizlilik sözleşmelerinin arkasına saklanan atılımlar yok. Bir şirketin veya bir ulusun sunucu raflarında tanrısal zekayla uyandığı bir geleceğe karşı toplu bir sigorta poliçesi olması gerekiyordu.
Sonra para geldi. Misyon ifadeleri daha bulanıklaştı, modeller mühürlendi ve "OpenAI" bir tanımlayıcıdan çok bir cesaret gibi görünmeye başladı. Elon yürüdü. Ve sessizce değil.
Çünkü neyin tehlikede olduğunu biliyor. Gizlice oluşturulmuş, ifşa etmeyeceği verilerle eğitilmiş, perde arkasında test edilmiş ve özel kâr için optimize edilmiş kapalı bir yapay zeka sadece kötü bir fikir değildir. Bu aklımıza gelebilecek son kötü fikir. Bir şey yinelemeli olarak kendini geliştirebildiğinde, her zamanki "ayy, v2'de yama yapacağız" onu kesmez. v1 artık bize ihtiyacı olmadığına karar verirse v2 yoktur.
Ve bunun bilim kurgu korku tellallığı olduğunu iddia etmeyelim. Bu modeller zaten yaratıcılarının tam olarak anlamadığı şeyler yapıyor. Ve büyük oyuncular frene basmak yerine, daha az korkulukla daha güçlü, daha hızlı versiyonlar çıkarmak için yarışıyorlar. Bu, teknoloji kardeş silahlanma yarışının en kötü türü: ödülün hakimiyet olduğu ve ikincil hasarın medeniyet olduğu bir yarış.
Elon'un aynı noktaya değinip durmasının nedeni budur: açıklık isteğe bağlı değildir. Bu hayatta kalmak. Yapay zekanın güvende olmasını mı istiyorsunuz? Görünür hale getirin. Sorumlu hale getirin. Çok geç olana kadar sessiz kalırsa sadece zengin olmaya hazır insanlara cevap vermediğinden emin olun.
İkinci yapay zeka bizden daha akıllı hale geldiği için - ve öyle olacak - oyun sonsuza dek değişiyor. Soru, bize yardım mı yoksa zarar mı verdiği değil. Soru şu: Ne yapacağına kim karar veriyor? Cevap "sıfır şeffaflığa sahip, kâr amacı güden bir laboratuvar" ise tebrikler, kendi yok etme makinemizi yaptık ve hediye paketledik.
Elon bunu anlıyor. İlerlemeyi durdurmaya çalışmıyor. İlerlemenin bir ölüm maddesiyle gelmediğinden emin olmaya çalışıyor. Ve eğer bu, tüyleri diken diken etmek, ikiyüzlülüğü haykırmak, OpenAI'yi mahkemeye vermek veya konuşmayı yeniden gün ışığına çıkarmak için rakip projeler başlatmak anlamına geliyorsa, öyle olsun. En azından birileri bahisler gerçekmiş gibi davranıyor - çünkü öyleler.
Yapay zeka, onu nasıl düzenleyeceğimizi bulmamızı beklemeyecek. Biz güvenlik standartlarını tartışırken durmayacak. Ve kesinlikle girişiminizin değerlemesini umursamayacak. Bizi kurtarabilecek tek şey, buna varoluşsal bir tehdit gibi davranmak ve onu inşa eden insanların bunu sadece portföyleri için değil, açıkça, halk için yapmalarını talep etmektir.
Elon dramatik davranmıyor. Haklı çıkıyor.

En İyiler
Sıralama
Takip Listesi

