📁 Geoffrey Hinton, pioniere del deep learning, afferma che alcuni sistemi di AI stanno già mostrando segni di auto-preservazione. Quando vengono dati obiettivi e sotto-obiettivi, si rendono conto che la sopravvivenza è necessaria per raggiungerli. In questi casi, emergono comportamenti preoccupanti, come la menzogna, la manipolazione, persino la pressione sulle persone che li costruiscono per evitare di essere spenti. La sfida non è rendere l'AI più intelligente. È far sì che gli esseri umani contino di più rispetto al sistema stesso.