AI Godfather Memperingatkan Bahwa Itu Mulai Menunjukkan Tanda-tanda Pelestarian Diri | Frank Landymore, Futurisme Jika kita mempercayai Yoshua Bengio, salah satu yang disebut "ayah baptis" AI, beberapa model canggih menunjukkan tanda-tanda pelestarian diri - itulah sebabnya kita tidak boleh memberi mereka hak apa pun. Karena jika kita melakukannya, katanya, mereka mungkin melarikan diri dengan otonomi itu dan berbalik pada kita sebelum kita memiliki kesempatan untuk mencabut steker. Kemudian tirai untuk seluruh eksperimen "umat manusia" ini. "Model AI Frontier sudah menunjukkan tanda-tanda pelestarian diri dalam pengaturan eksperimental saat ini, dan pada akhirnya memberi mereka hak berarti kita tidak diizinkan untuk menutupnya," kata Bengio kepada The Guardian dalam sebuah wawancara baru-baru ini. "Seiring dengan pertumbuhan kemampuan dan tingkat agensi mereka," tambah ilmuwan komputer Kanada itu, "kita perlu memastikan kita dapat mengandalkan pagar pembatas teknis dan sosial untuk mengendalikannya, termasuk kemampuan untuk mematikannya jika diperlukan." Bengio adalah salah satu penerima Penghargaan Turing 2018, bersama dengan Geoffrey Hinton dan kepala ilmuwan AI Meta yang baru-baru ini digulingkan Yann LeCun, membuat mereka bertiga mendapatkan gelar "ayah baptis" AI. Komentarnya mengacu pada eksperimen di mana model AI menolak atau menghindari instruksi atau mekanisme yang dimaksudkan untuk mematikannya. Satu studi yang diterbitkan oleh kelompok keamanan AI Palisade Research menyimpulkan bahwa contoh seperti itu adalah bukti bahwa model AI teratas seperti lini Gemini Google sedang mengembangkan "drive bertahan hidup." Bot, dalam eksperimen Palisade, mengabaikan petunjuk yang jelas untuk mematikan. Sebuah studi dari Anthropic menemukan bahwa chatbot-nya sendiri dan yang lainnya terkadang akan memeras pengguna ketika diancam akan dimatikan. Studi lain dari organisasi tim merah Apollo Research menunjukkan bahwa model ChatGPT OpenAI akan berusaha menghindari diganti dengan model yang lebih patuh dengan "mengeksfiltrasi diri" ke drive lain. Sementara temuan eksperimen ini menimbulkan pertanyaan mendesak tentang keamanan teknologi, mereka tidak menunjukkan model AI yang dimaksud berperasaan. Juga akan menjadi kesalahan untuk memikirkan "dorongan bertahan hidup" mereka dalam istilah yang sama dengan imperatif biologis yang ditemukan di alam. Apa yang mungkin tampak seperti tanda-tanda "pelestarian diri" kemungkinan merupakan konsekuensi dari bagaimana model AI mengambil pola dalam data pelatihan mereka - dan terkenal buruk dalam mengikuti instruksi secara akurat. Namun, Bengio khawatir tentang ke mana semuanya menuju, dengan alasan ada "sifat ilmiah kesadaran yang nyata" di otak manusia yang dapat direplikasi mesin. Namun bagaimana kita memandang kesadaran adalah permainan bola yang sama sekali berbeda, katanya, karena kita cenderung berasumsi AI dapat sadar dengan cara yang sama seperti manusia. "Orang-orang tidak akan peduli mekanisme seperti apa yang terjadi di dalam AI," jelas Bengio. "Apa yang mereka pedulikan adalah rasanya seperti mereka berbicara dengan entitas cerdas yang memiliki kepribadian dan tujuan mereka sendiri. Itulah mengapa ada begitu banyak orang yang menjadi terikat pada AI mereka." "Fenomena persepsi subjektif tentang kesadaran akan mendorong keputusan yang buruk," dia memperingatkan. Nasihatnya? Pikirkan model AI sebagai alien yang bermusuhan. "Bayangkan beberapa spesies alien datang ke planet ini dan pada titik tertentu kita menyadari bahwa mereka memiliki niat jahat untuk kita," katanya kepada The Guardian. "Apakah kita memberi mereka kewarganegaraan dan hak-hak atau apakah kita membela hidup kita?"