Este artigo do DeepMind acabou de matar silenciosamente a mentira mais reconfortante sobre a segurança da IA. A ideia de que segurança é sobre como os modelos se comportam na maior parte do tempo parece razoável. Também é errado no momento em que os sistemas escalam. DeepMind mostra por que as médias deixam de importar quando a implantação atinge milhões de interações. O artigo reformula a segurança da AGI como um problema de distribuição. O que importa não é o comportamento típico. É a cauda. Fracassos raros. Casos extremos. Eventos de baixa probabilidade que parecem ignoráveis em testes, mas que se tornam inevitáveis no mundo real. Benchmarks, red-teaming e demos mostram o meio. Deployment amostra tudo. Usuários estranhos, incentivos estranhos, ciclos de feedback hostis, ambientes que ninguém planejou. Em larga escala, esses casos deixam de ser raros. Eles são garantidos. Aqui está a visão desconfortável: o progresso pode fazer os sistemas parecerem mais seguros enquanto silenciosamente os torna mais perigosos. Se a capacidade cresce mais rápido que o controle de cauda, falhas visíveis diminuem enquanto o risco catastrófico se acumula fora da tela. Dois modelos podem parecer idênticos em média e ainda assim diferir muito no pior dos casos. As avaliações atuais não conseguem ver essa diferença. Estruturas de governança assumem que podem. Você não pode certificar segurança com testes finitos quando o risco está na mudança de distribuição. Você nunca está testando o sistema que realmente implanta. Você está experimentando um futuro que não controla. Esse é o verdadeiro punchline. A segurança da AGI não é uma característica do modelo. É um problema de sistema. Contexto de implantação, incentivos, monitoramento e quanto de risco de cauda a sociedade tolera importam mais do que médias limpas. Este artigo não tranquiliza. Isso remove a ilusão. A questão não é se o modelo geralmente se comporta bem. É o que acontece quando não acontece — e a frequência com que isso é permitido antes que a escala torne isso inaceitável. Papel: