Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🦔 Lầu Năm Góc đang có kế hoạch cho phép các công ty AI đào tạo mô hình trên dữ liệu mật, theo MIT Technology Review. Hiện tại, các mô hình như Claude được sử dụng trong các môi trường mật để trả lời câu hỏi, bao gồm phân tích mục tiêu ở Iran, nhưng chúng không học từ dữ liệu. Việc đào tạo sẽ thay đổi điều đó. Một cựu lãnh đạo chính sách AI tại Google và OpenAI đã nói với MIT rằng rủi ro lớn nhất là thông tin mật có thể bị lộ ra cho những người không nên có quyền truy cập, vì các bộ phận quân sự khác nhau với các cấp độ bảo mật khác nhau sẽ chia sẻ cùng một AI.
Quan điểm của tôi
Tôi nghĩ rằng vấn đề phân chia là điều cần theo dõi ở đây. Thông tin mật được phân chia vì một lý do, với các chương trình khác nhau, các cấp độ bảo mật khác nhau và các yêu cầu cần biết khác nhau. Nếu bạn đào tạo một mô hình trên dữ liệu từ nhiều phân khúc, mô hình sẽ không hiểu những ranh giới đó và chỉ có thông tin. Tôi ít lo lắng về việc dữ liệu mật bị rò rỉ ra internet công cộng vì cơ sở hạ tầng đã tồn tại để ngăn chặn điều đó. Điều khiến tôi lo ngại là một mô hình được đào tạo trên tín hiệu tình báo, tình báo con người và kế hoạch hoạt động cùng một lúc bắt đầu kết nối các điểm giữa các phân khúc theo cách vi phạm toàn bộ mục đích của việc phân chia.
Điều này cũng đang diễn ra trong khi Lầu Năm Góc chạy đua để trở thành "lực lượng chiến đấu ưu tiên AI" trong bối cảnh xung đột Iran đang leo thang, điều này tạo áp lực để di chuyển nhanh. Di chuyển nhanh trên các hệ thống AI xử lý dữ liệu mật là cách bạn gặp phải những thất bại không xuất hiện cho đến khi chúng trở nên thảm khốc. Một quan chức quốc phòng cho biết họ sẽ đánh giá độ chính xác trên dữ liệu không mật trước, điều này là bản năng đúng, nhưng tôi muốn biết khoảng thời gian đánh giá đó kéo dài bao lâu trước khi áp lực triển khai chiến thắng.
Hedgie🤗

Hàng đầu
Thứ hạng
Yêu thích
