Ik heb dit eerder gezegd, maar dit is bullish om veel trainingsdata te hebben. Dit impliceert dat LLM's waarschijnlijk veel beter zullen zijn in het beveiligen / auditen van EVM-code. Je kunt dit fenomeen al zien bij modellen—ze zijn geweldig in webontwikkeling en Python-scripts, maar veel slechter in low-level code waar er gewoon veel minder voorbeelden op Github zijn. Dit betekent ook dat menselijke auditors in de loop van de tijd steeds meer zullen focussen op talen/toepassingen met schaarse trainingsdata. (De nieuwe exploits die de agent vond, waren beide afrondingsfouten. Kan dit alsjeblieft eindelijk het einde van afrondingsfouten in crypto betekenen?)