Jeg har sagt dette før, men det er positivt å ha mye treningsdata. Det antyder at LLM-er sannsynligvis er mye bedre til å sikre og revidere EVM-kode. Du kan allerede se dette fenomenet med modeller – de er fantastiske på webutvikling og Python-skript, mye verre på lavnivåkode hvor det er langt færre eksempler på Github. Det betyr også at menneskelige revisorer over tid i økende grad vil fokusere på sjeldne treningsdataspråk/applikasjoner. (Også de nye utnyttelsene agenten fant var begge rundingsinsekter. Kan dette endelig bety slutten på avrundingsfeil i krypto?)