我現在在布宜諾斯艾利斯參加DeFi安全峰會,與@blocksec (EigenLabs)、@ChanniGreenwall (Olympix)、@jack__sanford (Sherlock)和@nicowaisman (Xbow)一起參加了一個關於AI和Web3安全的座談會。曾經感覺像是「遙遠的未來」的事情,如今已被討論為未來幾年的具體路線圖:防禦性和攻擊性AI驅動的技術將迅速發展,特別是在漏洞發現方面。今天審計員手動進行的所有工作和通過一系列工具進行的工作,正逐漸被整合到更強大且可訪問的自動化堆疊中。 重要的是要清醒地看待現實:我們可以可靠地「隔離」模型以防止不當使用的希望是虛幻的。任何足夠強大的模型,根據定義,都是雙重用途的。提供者將添加限制、過濾器、政策——但這並不是根本障礙。任何有動機和資源的人都可以啟動自我托管的模型,組建自己的代理堆疊,並使用相同的技術,而不必擔心服務條款。你不能在假設攻擊者不會接觸這些工具的情況下設計安全性。 攻擊的經濟學也遠非簡單。在短期內,攻擊將變得更便宜:更多的自動化,更多的「廣域轟炸」,更多的狀態和配置的徹底探索,而不需要人類參與。但從長遠來看,隨著防禦性實踐和工具的跟進,成功的攻擊將變得更昂貴:覆蓋範圍將改善,微不足道的漏洞將消失,有效的違規行為將需要嚴格的基礎設施、準備和專業知識。這將使事件的平衡轉向更少的事件——但發生的事件將會更加複雜和昂貴。 我主要的收穫是:我們必須重新審視整個安全生命周期,而不僅僅是「表面改善」審計。我們如何描述和理解風險概況,威脅模型如何隨著AI的出現而演變,我們如何結構開發、審查、測試、部署、鏈上監控、事件響應和事後分析——所有這些都需要重新思考。傳統的審計將仍然是一個關鍵部分,但它們不再能夠成為唯一的重心。現實是,AI對防禦者和攻擊者的影響是對稱的——Web3安全必須調整其整個運營模式以應對這場不對稱的軍備競賽。