Recentemente li "Se Alguém Constrói, Todos Morrem" da @ESYudkowsky e @So8res. Uma forma de resumir o argumento é a seguinte: 1. Em um cenário de decolagem rápida, é praticamente certo que a humanidade será exterminada. 2. Não sabemos se estamos a um mês, um ano ou uma década, de uma melhora que nos colocaria em um cenário de decolagem rápida. 3. Dadas as premissas 1 e 2, devemos interromper o desenvolvimento da IA e criar tratados internacionais para garantir o cumprimento.