我最近讀了 @ESYudkowsky 和 @So8res 的《如果有人建造它,所有人都會死》。 總結這個論點的一種方式如下: 1. 在快速起飛的情境中,人類幾乎肯定會被消滅。 2. 我們不知道距離能讓我們進入快速起飛情境的改進還有一個月、一年或十年。 3. 鑑於前提1和2,我們應該停止AI的發展,並制定國際條約以強制遵守。