estou imerso em IA (aprendizagem de máquina na altura...) desde 2007. estudei aprendizagem de máquina nos EUA, li a maioria dos livros, ouvi todos os podcasts. nada me chocou como o recente livro + entrevista de roman yampolskiy. 🧵
a sua opinião é rara + profunda: construir superinteligência artificial (asi) não é apenas arriscado, é basicamente uma extinção garantida.
a capacidade está resolvida (computação + dados = IA mais inteligente). a segurança não está resolvida. e a lacuna entre os dois cresce a cada dia.
os mercados de previsão + líderes de laboratório dizem que a AGI pode chegar até 2027. a superinteligência provavelmente segue automaticamente. não estamos prontos.
roman prevê não 10% de desemprego, mas quase total (>99%+). tanto o trabalho cognitivo quanto o físico serão substituídos. a requalificação não ajudará se todos os empregos forem automatizáveis.
"guardrails" são curativos. sistemas mais inteligentes contornam-nos. desligar? fantasia. você não desliga algo que é mais inteligente do que você; é ele que desliga você.
o risco de extinção nem precisa de asi. a biotecnologia assistida por ia poderia dar a um mau ator ferramentas para causar danos em escala civilizacional.
as dinâmicas de corrida estão quebradas: uma vez que o asi é ativado, não importa quem o construiu. ambos os lados perdem.
chamada de roman: pause asi. mantenha a ia estreita para problemas reais. pare de perseguir sistemas "divinos" que não conseguimos alinhar ou controlar.
2,66K