🚨JUST IN: Cercetătorul-șef al firmei de securitate crypto @Certora, Mooly Sagiv, avertizează că codul generat de LLM poate introduce vulnerabilități critice de securitate prin "sărirea discretă a părții dificile", după ce exploatarea recentă de @MoonwellDeFi a fost descrisă pe scară largă ca primul incident DeFi care a implicat cod asistat de AI. El a spus că LLM-urile se potrivesc tiparelor, nu semanticii, și adesea fac presupuneri nejustificate, producând cod care pare corect, dar poate eșua în condiții reale și poate duce la vulnerabilități exploatabile.