Eu me aprofundo em IA (aprendizado de máquina naquela época...) desde 2007. estudou aprendizado de máquina nos EUA, leu a maioria dos livros, ouviu todos os podcasts. Nada me chocou como o recente livro + entrevista de Roman Yampolskiy. 🧵
Sua opinião é rara + profunda: construir superinteligência artificial (ASI) não é apenas arriscado, é basicamente extinção garantida.
A capacidade é resolvida (computação + dados = IA mais inteligente). a segurança não está resolvida. e a lacuna entre os dois cresce a cada dia.
Mercados de previsão + líderes de laboratório dizem que a AGI pode chegar até 2027. a superinteligência provavelmente segue automaticamente. não estamos prontos.
Roman prevê não 10% de desemprego, mas quase total (>99%+). tanto o trabalho cognitivo + físico substituído. O retreinamento não ajudará se todos os trabalhos forem automatizáveis.
"Guarda-corpos" são curativos. sistemas mais inteligentes os contornam. Desligar? fantasia. Você não puxa o plugue de algo que te engana, ele puxa o seu.
O risco de extinção nem precisa de ASI. A biografia assistida por IA pode fornecer a um mau ator ferramentas para danos em escala de civilização.
A dinâmica da corrida está quebrada: uma vez que o ASI é ativado, não importa quem o construiu. Ambos os lados perdem.
Chamada de Roman: Pause ASI. Mantenha a IA estreita para problemas reais. Pare de perseguir sistemas "divinos" que não podemos alinhar ou controlar.
2,66K