Недавно я прочитал «Если кто-то это построит, все умрут» от @ESYudkowsky и @So8res. Один из способов резюмировать аргумент выглядит следующим образом: 1. В сценарии быстрого старта практически невозможно избежать уничтожения человечества. 2. Мы не знаем, находимся ли мы в месяце, году или десятилетии от улучшения, которое приведет нас к сценарию быстрого старта. 3. Учитывая предпосылки 1 и 2, мы должны остановить разработку ИИ и создать международные договоры для обеспечения соблюдения.