Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Eu me aprofundo em IA (aprendizado de máquina naquela época...) desde 2007. estudou aprendizado de máquina nos EUA, leu a maioria dos livros, ouviu todos os podcasts. Nada me chocou como o recente livro + entrevista de Roman Yampolskiy. 🧵
Sua opinião é rara + profunda: construir superinteligência artificial (ASI) não é apenas arriscado, é basicamente extinção garantida.
A capacidade é resolvida (computação + dados = IA mais inteligente). a segurança não está resolvida. e a lacuna entre os dois cresce a cada dia.
Mercados de previsão + líderes de laboratório dizem que a AGI pode chegar até 2027. a superinteligência provavelmente segue automaticamente. não estamos prontos.
Roman prevê não 10% de desemprego, mas quase total (>99%+). tanto o trabalho cognitivo + físico substituído. O retreinamento não ajudará se todos os trabalhos forem automatizáveis.
"Guarda-corpos" são curativos. sistemas mais inteligentes os contornam. Desligar? fantasia. Você não puxa o plugue de algo que te engana, ele puxa o seu.
O risco de extinção nem precisa de ASI. A biografia assistida por IA pode fornecer a um mau ator ferramentas para danos em escala de civilização.
A dinâmica da corrida está quebrada: uma vez que o ASI é ativado, não importa quem o construiu. Ambos os lados perdem.
Chamada de Roman: Pause ASI. Mantenha a IA estreita para problemas reais. Pare de perseguir sistemas "divinos" que não podemos alinhar ou controlar.
2,66K
Melhores
Classificação
Favoritos

