我之前说过,但拥有大量训练数据是看涨的。这意味着大型语言模型(LLMs)可能在保护/审计EVM代码方面会更出色。 你可以在模型中看到这种现象——它们在网页开发和Python脚本方面表现出色,但在低级代码方面则差得多,因为在Github上相关示例少得多。 这也意味着,随着时间的推移,人类审计员将越来越多地关注稀缺训练数据的语言/应用。 (此外,代理发现的新漏洞都是舍入错误。能不能请这最终意味着加密领域舍入错误的终结?)