Như thường lệ với quy định công nghệ, tôi nghĩ rằng nhiều dự luật và dự thảo luật về AI đã lỗi thời và không theo kịp công nghệ. Những giả định từ vài năm trước đã dẫn đến những phụ thuộc mà rất khó để thoát ra. Nhiều lợi ích trong AI ngày nay đến từ việc huấn luyện sau, cấu trúc hỗ trợ, sử dụng công cụ và mở rộng tính toán suy diễn: điều này có nghĩa là ngay cả khi các mô hình cải thiện theo thời gian, không chỉ các phòng thí nghiệm mới đẩy ranh giới của những gì thực sự có thể, mà còn nhiều công ty đổi mới trên các mô hình. Ngoài ra, nhiều biện pháp như bộ lọc, phân loại, cơ chế giám sát, v.v. không được áp dụng cho mô hình mà cho cấu trúc phần mềm - do đó, nhiều đề xuất pháp lý mong đợi các tác hại được giảm thiểu ở cấp độ mô hình không hiệu quả lắm. Mọi người đã nhận ra điều này với sự thiên lệch vài năm trước, và giờ đây lại với nhiều mối quan tâm khác. Đối với tôi, những phát triển này xác nhận rằng (a) trước tiên, gánh nặng nên nằm ở việc chứng minh rằng các luật hiện tại và sự thiếu sót là không đủ - rất ít người làm điều này; (b) khi không có và tồn tại khoảng trống, bạn sẽ tốt hơn với quy định dựa trên kết quả để cho phép một chuỗi phức tạp các tác nhân thương lượng các biện pháp/ can thiệp thích hợp; (c) làm như vậy sẽ yêu cầu chuyên môn trong lĩnh vực và xem xét các luật, quy tắc cụ thể của ngành hiện có - tức là không phải là một yêu cầu trừu tượng theo chiều ngang; (d) bảo mật trọng số mô hình, các đánh giá phục vụ như caveat emptor, và các yêu cầu minh bạch cơ bản có thể vẫn có ý nghĩa ở cấp độ mô hình; (e) bạn cần những nhà quản lý có khả năng hiểu cách AI được sử dụng trong các lĩnh vực của họ đủ sâu sắc. Nhưng vâng, bạn sẽ không 'giảm thiểu' các mối đe dọa an ninh mạng gây hấn hoặc gian lận hỗ trợ AI bằng cách điều chỉnh mô hình. Các phương pháp dựa trên thực thể cũng không giải quyết được bất kỳ điều gì trong số này và chỉ giả định rằng bạn có thể thu hẹp rủi ro (và các biện pháp giảm thiểu liên quan) xuống một vài tác nhân giống nhau, theo kiểu EU. Vấn đề là giải pháp thích hợp không thực sự hấp dẫn, và về cơ bản không mang lại sự hài lòng của "chúng tôi đã giải quyết mọi loại rủi ro thông qua một can thiệp quy mô lớn duy nhất." Và việc làm như vậy sẽ yêu cầu phải đối mặt với thực tế của việc quản lý quá mức trong nhiều lĩnh vực, và sự thiếu thốn trong những lĩnh vực khác (mạng, sinh học? phụ thuộc vào mô hình mối đe dọa cụ thể của bạn).