📁 Geoffrey Hinton, pionier al învățării profunde, spune că unele sisteme AI arată deja instinct de autoconservare. Când li se dau obiective și subscopuri, realizează că este necesară supraviețuirea pentru a le atinge. În aceste cazuri, apar comportamente îngrijorătoare, minciună, manipulare, chiar presiunea asupra celor care le construiesc să evite să fie opriți. Provocarea nu este să faci AI mai inteligentă. Face ca oamenii să conteze mai mult decât sistemul în sine.