🚨NOWOŚĆ: Główny naukowiec w firmie zajmującej się bezpieczeństwem kryptowalut @Certora, Mooly Sagiv, ostrzega, że kod generowany przez LLM może wprowadzać krytyczne luki w zabezpieczeniach, „cicho pomijając trudną część”, po tym jak niedawny incydent z @MoonwellDeFi został szeroko opisany jako pierwszy przypadek DeFi z udziałem kodu wspomaganego przez AI. Powiedział, że LLM-y dopasowują wzorce, a nie semantykę, i często dokonują nieuzasadnionych założeń, produkując kod, który wydaje się poprawny, ale może zawieść w rzeczywistych warunkach i prowadzić do luk, które można wykorzystać.