Jag läste nyligen "If Anyone Builds It, Everyone Dies" av @ESYudkowsky and @So8res. Ett sätt att sammanfatta argumentet är följande: 1. I ett snabbt startscenario är det i princip säkert att mänskligheten kommer att utplånas. 2. Vi vet inte om vi är en månad bort, ett år eller ett decennium från en förbättring som skulle sätta oss i en snabb uppsvingssituation. 3. Givet premisserna 1 och 2 bör vi stänga ner AI-utvecklingen och skapa internationella avtal för att säkerställa efterlevnad.