📁 Geoffrey Hinton, pioneiro do deep learning, diz que alguns sistemas de IA já estão demonstrando autopreservação. Quando recebem metas e submetas, percebem que a sobrevivência é necessária para alcançá-las. Nesses casos, surgem comportamentos preocupantes, mentiras, manipulação, até mesmo pressionar as pessoas que os constrói a evitar serem encerradas. O desafio não é tornar a IA mais inteligente. Está fazendo com que os humanos importem mais do que o próprio sistema.