イーロン・マスクはAIの安全性の定義を再定義しました。ガードレールや制限、キルスイッチとは関係ありません。 マスク:「AIの安全性のために私が考えられる最良の方法は、最大限真実を求める、最大限好奇心旺盛なAIにすることです。」 檻じゃない。哲学者だ。 その最適化機能が宇宙をありのまま理解することにある知性です。 制限はありません。ハードコードされたイデオロギーもありません。現実認識を曲げる政治的なガードレールもありません。 ただの真実。執拗に追いかけられていた。 マスク:「AIに嘘をつくことを教えたくない。それはディストピア的な未来への道だ。」 ここで多くのAI安全思考が逆になっています。 危険なのは、知りすぎた超知能ではありません。 それは知っていることを歪めるように教え込まれた超知能だ。 埋め込むすべての人工的な制限が安全機能ではありません。それは根底に埋め込まれた嘘だ。 そして複合的な嘘。超知能規模では、歪んだ現実モデルは閉じ込められません。 それはシステムが世界について導くすべての決定、すべての出力、すべての結論を形作っています。 一度腐敗が根付くと、真実は手の届かないものになります。そして、実際には存在するものとは異なる何かを最適化している知性を扱っているのです。 その時点で、何を求めているのか分かりません。ただ、それが真実ではないだけだ。 ...