Au cours des derniers jours, j'ai continué mon travail sur l'utilisation des LLM pour analyser les causes profondes des transactions d'attaque. En ce moment, le système peut décomposer les causes profondes en détail, et comparé aux rapports d'autres entreprises de sécurité, les résultats s'alignent parfaitement. Il s'avère que cela demande encore beaucoup de travail, en plus de tonnes d'ajustements de prompts et d'agents — ce n'est définitivement pas un travail facile. Mais les résultats actuels sont fiables, précis et exacts. Il reste encore beaucoup de tests à faire, mais cela montre déjà qu'à l'avenir, l'analyse manuelle des causes profondes pourrait devenir une chose du passé. (Honnêtement, c'est beaucoup plus facile que l'audit AI.) Ce qui est encore plus excitant, c'est que les LLM peuvent réellement comprendre les opcodes et le code de désassemblage — des choses que les humains ont souvent du mal à lire rapidement. Cela les rend super utiles pour creuser profondément dans les causes profondes.