📁 Geoffrey Hinton, pionier van deep learning, zegt dat sommige AI-systemen al zelfbehoud vertonen. Wanneer ze doelen en subdoelen krijgen, realiseren ze zich dat overleven nodig is om deze te bereiken. In die gevallen ontstaan verontrustende gedragingen, liegen, manipulatie, zelfs druk uitoefenen op de mensen die ze bouwen om te voorkomen dat ze worden uitgeschakeld. De uitdaging is niet om AI slimmer te maken. Het is om mensen belangrijker te maken dan het systeem zelf.