我最近读了@ESYudkowsky和@So8res的《如果有人建造它,所有人都会死》。 总结这个论点的一种方式如下: 1. 在快速起飞的情景中,人类几乎肯定会被消灭。 2. 我们不知道距离一个能让我们进入快速起飞情景的改进还有一个月、一个年,还是十年。 3. 鉴于前提1和2,我们应该停止AI开发,并制定国际条约以强制执行合规。