显然有两种 AI 结果: > 硬起飞 - 在对齐之前的 ASI。无法控制。终结者场景。错误的风险是浪费数年的恐惧。创新放缓,竞争对手激增,人类错过了巨大的机会,比如治愈疾病、解决能源问题、结束稀缺。 > 平稳起飞 - 迭代部署。边走边找出解决方案。错误的风险是冲向虚无。失调的超智能出现,单一错误变得不可逆转。 你选择哪种方式?