J'ai récemment lu « Si quelqu'un le construit, tout le monde meurt » par @ESYudkowsky et @So8res. Une façon de résumer l'argument est la suivante : 1. Dans un scénario de décollage rapide, il est pratiquement certain que l'humanité sera anéantie. 2. Nous ne savons pas si nous sommes à un mois, à un an ou à une décennie d'une amélioration qui nous plongerait dans un scénario de décollage rapide. 3. Étant donné les prémisses 1 et 2, nous devrions arrêter le développement de l'IA et créer des traités internationaux pour faire respecter la conformité.