Tôi đang ở Buenos Aires ngay bây giờ tại Hội nghị An ninh DeFi, nơi tôi tham gia một buổi thảo luận về an ninh AI và Web3 cùng với @blocksec (EigenLabs), @ChanniGreenwall (Olympix), @jack__sanford (Sherlock) và @nicowaisman (Xbow). Những gì không lâu trước đây cảm thấy như một "tương lai xa" giờ đây đang được thảo luận như một lộ trình rất cụ thể cho những năm tới: cả công nghệ AI hỗ trợ phòng thủ và tấn công sẽ tiến bộ nhanh chóng, đặc biệt trong việc phát hiện lỗ hổng. Mọi thứ mà các kiểm toán viên làm ngày hôm nay một cách thủ công và thông qua một mớ công cụ đang dần được gộp lại thành những bộ công cụ tự động mạnh mẽ và dễ tiếp cận hơn. Điều quan trọng là nhìn nhận thực tế một cách tỉnh táo: hy vọng rằng chúng ta có thể "rào chắn" các mô hình khỏi việc sử dụng không mong muốn là ảo tưởng. Bất kỳ mô hình nào đủ khả năng đều, theo định nghĩa, có thể sử dụng cho cả hai mục đích. Các nhà cung cấp sẽ thêm các hạn chế, bộ lọc, chính sách — nhưng đó không phải là một rào cản cơ bản. Bất kỳ ai có động lực và nguồn lực sẽ khởi động một mô hình tự lưu trữ, lắp ráp bộ công cụ của riêng họ và sử dụng cùng một công nghệ mà không lo lắng về ToS. Bạn không thể thiết kế an ninh dưới giả định rằng kẻ tấn công sẽ không có quyền truy cập vào những công cụ này. Kinh tế của các cuộc tấn công cũng không hề đơn giản. Trong ngắn hạn, các cuộc tấn công sẽ trở nên rẻ hơn: nhiều tự động hóa hơn, nhiều "tấn công diện rộng" hơn, nhiều khám phá trạng thái và cấu hình hơn mà không có con người tham gia. Nhưng trong dài hạn, khi các thực tiễn và công cụ phòng thủ bắt kịp, các cuộc tấn công thành công sẽ trở nên đắt đỏ hơn: độ bao phủ sẽ cải thiện, các lỗi tầm thường sẽ biến mất, và các vi phạm hiệu quả sẽ yêu cầu cơ sở hạ tầng, chuẩn bị và chuyên môn nghiêm túc. Điều này sẽ chuyển đổi sự cân bằng về số lượng sự cố — nhưng những sự cố xảy ra sẽ phức tạp và tốn kém hơn nhiều. Điều tôi rút ra được: chúng ta sẽ phải xem xét lại toàn bộ vòng đời an ninh, không chỉ "cải thiện về mặt thẩm mỹ" các cuộc kiểm toán. Cách chúng ta mô tả và hiểu các hồ sơ rủi ro, cách các mô hình đe dọa phát triển với AI trong bức tranh, cách chúng ta cấu trúc phát triển, đánh giá, thử nghiệm, triển khai, giám sát trên chuỗi, phản ứng sự cố và phân tích hậu sự cố — tất cả những điều này sẽ cần phải được suy nghĩ lại. Các cuộc kiểm toán truyền thống sẽ vẫn là một phần quan trọng, nhưng chúng không thể còn là trung tâm trọng lực duy nhất. Thực tế là AI khuếch đại một cách đối xứng cả người phòng thủ và kẻ tấn công — và an ninh Web3 sẽ phải điều chỉnh toàn bộ mô hình hoạt động của mình để thích ứng với cuộc chạy đua vũ trang không đối xứng này.