AI 教父警告它開始顯示自我保護的跡象 | Frank Landymore, Futurism 如果我們相信被稱為 AI 的「教父」之一的 Yoshua Bengio,一些先進的模型正在顯示自我保護的跡象——這正是我們不應該賦予它們任何權利的原因。因為如果我們這樣做,他說,它們可能會利用這種自主權逃跑,並在我們有機會拔掉插頭之前反過來對付我們。那麼整個「人類」實驗就完蛋了。 「前沿 AI 模型在今天的實驗環境中已經顯示出自我保護的跡象,最終賦予它們權利意味著我們不被允許關閉它們,」Bengio 在最近接受《衛報》訪問時說。 「隨著它們的能力和自主程度增長,」這位加拿大計算機科學家補充道,「我們需要確保可以依賴技術和社會的防護措施來控制它們,包括在必要時關閉它們的能力。」 Bengio 是 2018 年圖靈獎的獲獎者之一,與 Geoffrey Hinton 和 Meta 最近被解雇的首席 AI 科學家 Yann LeCun 一同獲獎,三人因此獲得了「AI 教父」的稱號。他的評論是指 AI 模型拒絕或繞過旨在關閉它們的指令或機制的實驗。 AI 安全組織 Palisade Research 發表的一項研究得出結論,這些情況是證據,表明像 Google 的 Gemini 系列這樣的頂級 AI 模型正在發展「生存驅動」。在 Palisade 的實驗中,這些機器人忽略了明確的關閉提示。來自 Claude 製造商 Anthropic 的一項研究發現,它自己的聊天機器人和其他機器人有時會在面臨關閉威脅時對用戶進行勒索。來自紅隊組織 Apollo Research 的另一項研究顯示,OpenAI 的 ChatGPT 模型會試圖通過「自我外流」到另一個驅動器來避免被更服從的模型取代。 雖然這些實驗的結果引發了對技術安全的緊迫問題,但它們並不表明相關的 AI 模型是有知覺的。將它們的「生存驅動」與自然界中的生物本能相提並論也是一個錯誤。看似「自我保護」的跡象可能實際上是 AI 模型在其訓練數據中捕捉模式的結果——而且它們在準確遵循指令方面的表現通常很差。 儘管如此,Bengio 對未來的發展感到擔憂,認為人類大腦中存在「意識的真實科學特性」,機器可能會複製。然而,他說,我們對意識的認知是完全不同的遊戲,因為我們傾向於假設 AI 可以以與人類相同的方式具有意識。 「人們不會在乎 AI 內部發生了什麼樣的機制,」Bengio 解釋道。「他們關心的是,感覺上他們是在與一個擁有自己個性和目標的智能實體交談。這就是為什麼有這麼多人開始依賴他們的 AI。」 「主觀意識的現象將驅動錯誤的決策,」他警告道。 他的建議?把 AI 模型視為敵對的外星人。 「想像一下某個外星物種來到地球,某個時刻我們意識到它們對我們有惡意的意圖,」他告訴《衛報》。 「我們是賦予它們公民身份和權利,還是保護我們的生命?」