Saya baru-baru ini membaca "Jika Ada Yang Membangunnya, Semua Orang Mati" oleh @ESYudkowsky dan @So8res. Salah satu cara untuk meringkas argumen adalah sebagai berikut: 1. Dalam skenario lepas landas yang cepat, hampir pasti bahwa umat manusia akan musnah. 2. Kita tidak tahu apakah kita tinggal sebulan lagi, atau setahun lagi, atau satu dekade lagi, dari peningkatan yang akan menempatkan kita ke dalam skenario lepas landas yang cepat. 3. Mengingat premis 1 dan 2, kita harus menutup pengembangan AI, dan membuat perjanjian internasional untuk menegakkan kepatuhan.