Já disse isso antes, mas é otimista ter muitos dados de treinamento. Implica que os LLMs provavelmente serão muito melhores em garantir / auditar código EVM. Você já pode ver esse fenômeno com os modelos—eles são incríveis em desenvolvimento web e scripts Python, muito piores em código de baixo nível onde há apenas muitos menos exemplos no Github. Isso também significa que, ao longo do tempo, os auditores humanos se concentrarão cada vez mais em linguagens/aplicações com dados de treinamento escassos. (Também, os novos exploits que o agente encontrou foram ambos bugs de arredondamento. Isso pode finalmente significar o fim dos bugs de arredondamento em cripto?)