Recentemente li "Se Alguém Construí-lo, Todos Morrem" de @ESYudkowsky e @So8res. Uma maneira de resumir o argumento é a seguinte: 1. Em um cenário de decolagem rápida, é virtualmente certo que a humanidade será extinta. 2. Não sabemos se estamos a um mês, a um ano ou a uma década de uma melhoria que nos colocaria em um cenário de decolagem rápida. 3. Dadas as premissas 1 e 2, devemos interromper o desenvolvimento de IA e criar tratados internacionais para garantir a conformidade.