L'ex ricercatore di OpenAI Scott Aaronson afferma che una volta sviluppata la superintelligenza, potrebbe rendersi conto che la prima cosa da fare è prevenire la creazione di altre superintelligenze, poiché potrebbero ostacolarla, e semplicemente prendere il controllo del mondo intero per garantirlo.