Ich habe das schon einmal gesagt, aber das ist optimistisch, viel Trainingsdaten zu haben. Das impliziert, dass LLMs wahrscheinlich viel besser darin sein werden, EVM-Code zu sichern / zu prüfen. Man kann dieses Phänomen bereits bei Modellen sehen – sie sind erstaunlich gut in der Webentwicklung und bei Python-Skripten, aber viel schlechter bei Low-Level-Code, wo es einfach viel weniger Beispiele auf Github gibt. Das bedeutet auch, dass menschliche Prüfer im Laufe der Zeit zunehmend auf Sprachen/Anwendungen mit knappen Trainingsdaten fokussieren werden. (Außerdem waren die neuartigen Exploits, die der Agent gefunden hat, beide Rundungsfehler. Kann das bitte endlich das Ende der Rundungsfehler in der Krypto bedeuten?)