🚨GERADE EINGETROFFEN: Der Chief Scientist der Krypto-Sicherheitsfirma @Certora, Mooly Sagiv, warnt, dass von LLM generierter Code kritische Sicherheitsanfälligkeiten einführen kann, indem er „leise den schwierigen Teil überspringt“, nachdem der kürzliche @MoonwellDeFi-Exploit weithin als der erste DeFi-Vorfall beschrieben wurde, der KI-unterstützten Code beinhaltete. Er sagte, LLMs erkennen Muster, nicht Semantiken, und treffen oft unbegründete Annahmen, wodurch Code produziert wird, der korrekt erscheint, aber unter realen Bedingungen fehlschlagen und zu ausnutzbaren Schwachstellen führen kann.