Já disse isso antes, mas é otimista ter muitos dados de treinamento. Isso implica que os LLMs provavelmente serão muito melhores para proteger/auditar código EVM. Você já pode ver esse fenômeno com modelos — eles são incríveis em desenvolvimento web e scripts Python, muito piores em código de baixo nível, onde há muito menos exemplos no Github. Além disso, com o tempo, auditores humanos vão focar cada vez mais em linguagens/aplicações de dados de treinamento escassos. (Além disso, as façanhas inovadoras que o agente encontrou eram insetos de arredondamento. Será que isso finalmente pode significar o fim dos bugs de arredondamento em cripto?)