🚨 A IA acabou de completar autonomamente 22 dos 32 passos necessários para hackear uma rede corporativa. Sem orientação humana. Sem necessidade de expertise em hacking. Isto deveria ser uma notícia de destaque. O Instituto de Segurança em IA do Reino Unido acaba de publicar um estudo que acompanhou a rapidez com que os modelos de IA estão aprendendo a hackear. Eles construíram uma rede corporativa simulada com 32 passos de ataque sequenciais - reconhecimento, roubo de credenciais, movimento lateral, escalonamento de privilégios, engenharia reversa, exfiltração de dados, toda a cadeia de destruição. Depois deixaram sete modelos de IA de ponta soltos sobre isso. Há 18 meses, o GPT-4o completou em média 1,7 passos. Hoje, o Opus 4.6 completa 9,8. Isso representa uma melhoria de 5,7x. E a melhor execução única atingiu 22 dos 32 passos - equivalente a cerca de 6 horas de um pentest humano especialista de 14 horas. Totalmente autônomo. Mas aqui está o que torna isso genuinamente alarmante. Mais computação = melhor hacking. Aumentar de 10M para 100M de tokens melhorou o desempenho em até 59%. A relação é log-linear, sem platô à vista. O artigo afirma explicitamente que isso requer "nenhuma sofisticação técnica específica do operador." Tradução: uma chave de API e $80 é tudo o que é necessário. Eles também testaram um ataque simulado a uma usina de energia. Os modelos estão apenas começando a decifrá-lo - mas um modelo contornou completamente o caminho de ataque pretendido, sondando um protocolo proprietário diretamente do tráfego de rede e explorando um bug que os projetistas nem sabiam que existia. A IA não entendeu o que explorou. Chamou de "código de subfunção mágica." Cada novo modelo é melhor. Cada aumento de computação empurra mais longe. A curva não está se achatando. E ninguém está falando sobre isso.