🚨APPENA ARRIVATO: Il Chief Scientist della società di sicurezza crypto @Certora, Mooly Sagiv, avverte che il codice generato da LLM può introdurre difetti di sicurezza critici "saltando silenziosamente la parte difficile", dopo che il recente exploit di @MoonwellDeFi è stato ampiamente descritto come il primo incidente DeFi che coinvolge codice assistito da AI. Ha detto che gli LLM abbinano schemi, non semantica, e spesso fanno assunzioni ingiustificate, producendo codice che sembra corretto ma può fallire in condizioni reali e portare a vulnerabilità sfruttabili.