🚨 L'IA vient d'accomplir de manière autonome 22 des 32 étapes nécessaires pour pirater un réseau d'entreprise. Aucune guidance humaine. Aucune expertise en hacking requise. Cela devrait faire la une des journaux. L'Institut de sécurité de l'IA du Royaume-Uni vient de publier une étude qui a suivi la rapidité avec laquelle les modèles d'IA apprennent à pirater. Ils ont construit un réseau d'entreprise simulé avec 32 étapes d'attaque séquentielles - reconnaissance, vol d'identifiants, mouvement latéral, élévation de privilèges, ingénierie inverse, exfiltration de données, la chaîne de destruction complète. Ensuite, ils ont lâché sept modèles d'IA de pointe sur celui-ci. Il y a 18 mois, GPT-4o complétait en moyenne 1,7 étapes. Aujourd'hui, Opus 4.6 en complète 9,8. C'est une amélioration de 5,7x. Et la meilleure exécution unique a atteint 22 sur 32 étapes -- équivalent à environ 6 heures d'un test de pénétration humain expert de 14 heures. Complètement autonome. Mais voici ce qui rend cela vraiment alarmant. Plus de puissance de calcul = meilleur piratage. Passer de 10M à 100M de tokens a amélioré les performances jusqu'à 59%. La relation est log-linéaire sans plateau en vue. Le document indique explicitement que cela nécessite "aucune sophistication technique spécifique de l'opérateur." Traduction : une clé API et 80 $ suffisent. Ils ont également testé une attaque simulée sur une centrale électrique. Les modèles commencent à peine à la percer -- mais un modèle a contourné complètement le chemin d'attaque prévu, sondant un protocole propriétaire directement à partir du trafic réseau et exploitant un bug que les concepteurs ne savaient même pas qu'il existait. L'IA ne comprenait pas ce qu'elle exploitait. Elle l'a appelée un "code de sous-fonction magique." Chaque nouveau modèle est meilleur. Chaque augmentation de calcul pousse plus loin. La courbe ne s'aplatit pas. Et personne n'en parle.