Ostatnio przeczytałem „Jeśli ktokolwiek to zbuduje, wszyscy umierają” autorstwa @ESYudkowsky i @So8res. Jednym ze sposobów podsumowania argumentu jest następujący: 1. W scenariuszu szybkiego wzrostu praktycznie pewne jest, że ludzkość zostanie zniszczona. 2. Nie wiemy, czy jesteśmy miesiąc, rok, czy dekadę od poprawy, która wprowadziłaby nas w scenariusz szybkiego wzrostu. 3. Biorąc pod uwagę przesłanki 1 i 2, powinniśmy wstrzymać rozwój AI i stworzyć międzynarodowe traktaty w celu egzekwowania przestrzegania.