Attualmente mi trovo a Buenos Aires al DeFi Security Summit, dove ho partecipato a un panel sulla sicurezza di AI e Web3 insieme a @blocksec (EigenLabs), @ChanniGreenwall (Olympix), @jack__sanford (Sherlock) e @nicowaisman (Xbow). Ciò che non molto tempo fa sembrava un "futuro lontano" è ora discusso come una roadmap molto concreta per i prossimi anni: sia le tecnologie difensive che quelle offensive alimentate da AI avanzeranno rapidamente, specialmente nella scoperta di vulnerabilità. Tutto ciò che gli auditor fanno oggi manualmente e attraverso un mosaico di strumenti viene gradualmente accorpato in stack automatizzati più potenti e accessibili. È importante guardare alla realtà con sobrietà: la speranza di poter "recintare" in modo affidabile i modelli da usi indesiderati è illusoria. Qualsiasi modello sufficientemente capace è, per definizione, a doppio uso. I fornitori aggiungeranno restrizioni, filtri, politiche — ma questo non è un ostacolo fondamentale. Chiunque abbia motivazione e risorse avvierà un modello auto-ospitato, assemblerà il proprio stack agentico e utilizzerà le stesse tecnologie senza preoccuparsi dei ToS. Non puoi progettare la sicurezza assumendo che gli attaccanti non avranno accesso a questi strumenti. L'economia degli attacchi è anche tutt'altro che semplice. A breve termine, gli attacchi diventeranno più economici: più automazione, più "bombardamenti su larga scala", più esplorazione esaustiva di stati e configurazioni senza umani nel loop. Ma a lungo termine, man mano che le pratiche e gli strumenti difensivi si allineano, gli attacchi di successo diventeranno più costosi: la copertura migliorerà, i bug banali scompariranno e le violazioni efficaci richiederanno infrastrutture, preparazione ed esperienza serie. Questo sposterà l'equilibrio verso un minor numero di incidenti — ma quelli che si verificheranno saranno molto più complessi e costosi. La mia principale conclusione: dovremo rivedere l'intero ciclo di vita della sicurezza, non solo "migliorare cosmeticamente" gli audit. Come descriviamo e comprendiamo i profili di rischio, come i modelli di minaccia evolvono con l'AI in gioco, come strutturiamo sviluppo, revisioni, test, distribuzione, monitoraggio on-chain, risposta agli incidenti e post-mortem — tutto questo dovrà essere ripensato. Gli audit tradizionali rimarranno un pezzo chiave, ma non possono più essere l'unico centro di gravità. La realtà è che l'AI amplifica simmetricamente sia i difensori che gli attaccanti — e la sicurezza di Web3 dovrà adattare il suo intero modello operativo a questa corsa agli armamenti asimmetrica.