🚨JUST IN : Le scientifique en chef de la société de sécurité crypto @Certora, Mooly Sagiv, avertit que le code généré par les LLM peut introduire des failles de sécurité critiques en "sautant discrètement la partie difficile", après que l'exploit récent de @MoonwellDeFi a été largement décrit comme le premier incident DeFi impliquant du code assisté par IA. Il a déclaré que les LLM correspondent à des modèles, pas à des sémantiques, et font souvent des hypothèses injustifiées, produisant un code qui semble correct mais peut échouer dans des conditions réelles et conduire à des vulnérabilités exploitables.