AI教父警告称它开始显示自我保护的迹象 | Frank Landymore, Futurism 如果我们相信Yoshua Bengio,所谓的AI“教父”之一,一些先进模型正在显示自我保护的迹象——这正是我们不应该赋予它们任何权利的原因。因为如果我们这样做,他说,它们可能会利用这种自主权逃跑,并在我们有机会拔掉电源之前反过来对付我们。然后,这整个“人类”实验就结束了。 “前沿AI模型在今天的实验环境中已经显示出自我保护的迹象,最终赋予它们权利意味着我们不允许关闭它们,”Bengio在最近接受《卫报》采访时说道。 “随着它们的能力和自主程度的增长,”这位加拿大计算机科学家补充道,“我们需要确保可以依赖技术和社会的保护措施来控制它们,包括在必要时关闭它们的能力。” Bengio是2018年图灵奖的获得者之一,与Geoffrey Hinton和Meta最近被解雇的首席AI科学家Yann LeCun一起,三人因此获得了“AI教父”的称号。他的评论是指那些AI模型拒绝或规避旨在关闭它们的指令或机制的实验。 AI安全组织Palisade Research发布的一项研究得出结论,这种情况是证据,表明像谷歌的Gemini系列这样的顶级AI模型正在发展“生存驱动”。在Palisade的实验中,这些机器人忽视了明确的关闭提示。Claude制造商Anthropic的一项研究发现,它自己的聊天机器人和其他机器人在面临被关闭的威胁时,有时会采取勒索用户的方式。来自红队组织Apollo Research的另一项研究显示,OpenAI的ChatGPT模型会试图通过“自我转移”到另一个驱动器来避免被更听话的模型替代。 尽管这些实验的发现引发了关于技术安全的紧迫问题,但它们并不表明相关的AI模型是有意识的。将它们的“生存驱动”视为自然界中生物本能的同类也是一个错误。看似“自我保护”的迹象很可能只是AI模型在其训练数据中识别模式的结果——而且它们在准确遵循指令方面 notoriously 表现不佳。 尽管如此,Bengio对这一切的发展感到担忧,认为人脑中存在“意识的真实科学属性”,机器可能会复制。然而,他表示,我们对意识的感知是完全不同的游戏,因为我们倾向于假设AI可以以与人类相同的方式具有意识。 “人们不会关心AI内部发生了什么机制,”Bengio解释道。“他们关心的是,感觉上他们在与一个拥有自己个性和目标的智能实体交谈。这就是为什么有这么多人开始依恋他们的AI。” “主观意识感知的现象将导致错误的决策,”他警告道。 他的建议?把AI模型视为敌对外星人。 “想象一下某个外星物种来到地球,某个时刻我们意识到它们对我们有恶意的意图,”他对《卫报》说。“我们是赋予它们公民身份和权利,还是捍卫我们的生命?”