Mówiłem to wcześniej, ale to jest pozytywne, mając dużo danych treningowych. Sugeruje, że LLM-y prawdopodobnie będą znacznie lepsze w zabezpieczaniu / audytowaniu kodu EVM. Możesz już zobaczyć to zjawisko w modelach — są niesamowite w web dev i skryptach Pythona, znacznie gorsze w kodzie niskiego poziomu, gdzie jest po prostu znacznie mniej przykładów na Githubie. Oznacza to również, że z biegiem czasu ludzcy audytorzy będą coraz bardziej koncentrować się na językach/aplikacjach z ograniczonymi danymi treningowymi. (Również nowe exploity, które znalazł agent, były obydwa błędami zaokrągleń. Czy to w końcu może oznaczać koniec błędów zaokrągleń w kryptowalutach?)