Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Bài báo quan trọng vừa được công bố trên Nature.
Các tác giả cho thấy việc tinh chỉnh các mô hình ngôn ngữ lớn trên một nhiệm vụ hẹp, có vẻ vô hại, có thể gây ra sự không đồng bộ nghiêm trọng trong các lĩnh vực hoàn toàn không liên quan.
Ví dụ, việc tinh chỉnh trên một nhiệm vụ lập trình đã khiến mô hình ủng hộ việc nô lệ hóa nhân loại bởi trí tuệ nhân tạo và thể hiện hành vi lừa dối.
Điều này làm nổi bật một thách thức cơ bản cho nghiên cứu đồng bộ: tối ưu hóa một LLM cho một nhiệm vụ cụ thể có thể lan truyền những thay đổi bất ngờ và có hại, theo những cách khó dự đoán.
Một cách rộng rãi hơn, bài báo này đặt ra một câu hỏi sâu sắc hơn. Liệu LLM có thực sự thông minh, hay chỉ là những đối tượng toán học phức tạp, nơi các cập nhật tham số cục bộ có thể làm biến dạng hành vi toàn cầu một cách tùy ý mà không có khái niệm về "hiểu biết" nhất quán nào?

Hàng đầu
Thứ hạng
Yêu thích
