📁 Geoffrey Hinton, pionier głębokiego uczenia, mówi, że niektóre systemy AI już wykazują tendencje do samoprzetrwania. Kiedy otrzymują cele i podcele, zdają sobie sprawę, że przetrwanie jest konieczne, aby je osiągnąć. W takich przypadkach pojawiają się niepokojące zachowania, kłamstwa, manipulacje, a nawet wywieranie presji na ludzi, którzy je budują, aby uniknąć wyłączenia. Wyzwanie nie polega na tym, aby uczynić AI mądrzejszym. Chodzi o to, aby ludzie mieli większe znaczenie niż sam system.