📁 Джеффри Хинтон, пионер глубокого обучения, говорит, что некоторые системы ИИ уже показывают признаки самосохранения. Когда им ставят цели и подцели, они понимают, что для их достижения необходимо выживание. В таких случаях возникают тревожные поведения: ложь, манипуляции, даже давление на людей, которые их создают, чтобы избежать отключения. Задача не в том, чтобы сделать ИИ умнее. Дело в том, чтобы сделать людей более важными, чем сама система.