Due risultati dell'AI apparentemente: > Decollo rapido - ASI prima dell'allineamento. Incontrollabile. Scenario Terminator. Il rischio di sbagliare è anni sprecati nella paura. L'innovazione rallenta, i concorrenti avanzano e l'umanità perde enormi opportunità come curare malattie, risolvere l'energia, porre fine alla scarsità. > Decollo graduale - Distribuzione iterativa. Scopriamo mentre andiamo avanti. Il rischio di sbagliare è correre verso l'oblio. Emergere di una superintelligenza disallineata, e un singolo errore diventa irreversibile. Quale strada?