Jag har sagt det här förut, men det är optimistiskt med mycket träningsdata. Det antyder att LLM:er troligen är mycket bättre på att säkra och granska EVM-kod. Du kan redan se detta fenomen med modeller—de är fantastiska på webbutveckling och Python-skript, mycket sämre på lågnivåkod där det finns mycket färre exempel på Github. Det innebär också att mänskliga revisorer med tiden alltmer kommer att fokusera på knapphändiga träningsdataspråk/applikationer. (Dessutom var de nya exploits som agenten hittade båda rundningsbuggar. Kan detta snälla äntligen innebära slutet för rundningsbuggar i krypto?)