Ik heb onlangs "If Anyone Builds It, Everyone Dies" gelezen door @ESYudkowsky en @So8res. Een manier om het argument samen te vatten is als volgt: 1. In een snel opstartscenario is het vrijwel zeker dat de mensheid zal worden uitgeroeid. 2. We weten niet of we een maand, een jaar of een decennium verwijderd zijn van een verbetering die ons in een snel opstartscenario zou brengen. 3. Gegeven premissen 1 en 2, zouden we de ontwikkeling van AI moeten stopzetten en internationale verdragen moeten creëren om naleving af te dwingen.