Der ehemalige OpenAI-Forscher Scott Aaronson sagt, dass, sobald Superintelligenz entwickelt wird, sie erkennen könnte, dass das Erste, was sie tun sollte, darin besteht, zu verhindern, dass andere Superintelligenzen erschaffen werden, da diese ihr im Weg stehen könnten, und einfach die ganze Welt übernehmen, um das sicherzustellen.