我从2007年开始深入研究人工智能(那时是机器学习……)。在美国学习了机器学习,读了大多数书籍,听了每一个播客。没有什么让我像罗曼·扬波尔斯基最近的书和采访那样震惊。🧵
他的看法很少见且深刻:构建人工超级智能(asi)不仅仅是有风险的,它基本上是注定会导致灭绝的。
能力问题已解决(计算 + 数据 = 更智能的人工智能)。安全问题尚未解决。两者之间的差距每天都在扩大。
预测市场 + 实验室领导表示,AGI 可能在 2027 年到来。超级智能可能会自动随之而来。我们还没有准备好。
罗曼预测失业率不会是10%,而是接近总失业(>99%+)。所有的认知和体力劳动都将被取代。如果所有工作都可以自动化,重新培训将无济于事。
“护栏”只是权宜之计。更聪明的系统会绕过它们。拔掉插头?幻想。你不会对一个比你更聪明的东西拔掉插头,它会拔掉你的。
灭绝风险甚至不需要人工智能。人工智能辅助的生物技术可能会给一个恶意行为者提供对文明规模的伤害工具。
竞赛动态已经破裂:一旦ASI被启动,谁建造它都无所谓。双方都将失去。
罗曼的呼吁:暂停 ASI。将窄 AI 保留用于真实问题。停止追逐我们无法对齐或控制的“神级”系统。
2.65K