DeepSeek V3.2 là mô hình trọng số mở thông minh thứ 2 và cũng đứng trước Grok 4 và Claude Sonnet 4.5 (Suy nghĩ) - nó đưa DeepSeek Sparse Attention ra khỏi trạng thái ‘thí nghiệm’ và kết hợp với một sự gia tăng đáng kể về trí tuệ @deepseek_ai V3.2 đạt 66 trên Chỉ số Trí tuệ Phân tích Nhân tạo; một sự nâng cấp trí tuệ đáng kể so với DeepSeek V3.2-Exp (+9 điểm) được phát hành vào tháng 9 năm 2025. DeepSeek đã chuyển điểm cuối API chính của mình sang V3.2, mà không thay đổi giá từ giá V3.2-Exp - điều này đưa giá chỉ còn $0.28/$0.42 cho mỗi 1 triệu token đầu vào/đầu ra, với 90% giảm giá cho các token đầu vào đã được lưu trữ. Kể từ khi phát hành DeepSeek V3 ban đầu ~11 tháng trước vào cuối tháng 12 năm 2024, kiến trúc V3 của DeepSeek với 671B tổng số/37B tham số hoạt động đã thấy họ từ một mô hình đạt 32 đến đạt 66 trên Chỉ số Trí tuệ Phân tích Nhân tạo. DeepSeek cũng đã phát hành V3.2-Speciale, một biến thể chỉ suy luận với khả năng nâng cao nhưng sử dụng token cao hơn đáng kể. Đây là một sự đánh đổi phổ biến trong các mô hình suy luận, nơi suy luận nâng cao hơn thường mang lại điểm số trí tuệ cao hơn và nhiều token đầu ra hơn. V3.2-Speciale có sẵn qua API của DeepSeek cho đến ngày 15 tháng 12. V3.2-Speciale hiện tại đạt điểm thấp hơn trên Chỉ số Trí tuệ Phân tích Nhân tạo (59) so với V3.2 (Suy luận, 66) vì API của DeepSeek chưa hỗ trợ gọi công cụ cho mô hình này. Nếu V3.2-Speciale đạt điểm tau2 của V3.2 (91%) với việc gọi công cụ được kích hoạt, nó sẽ đạt khoảng 68 trên Chỉ số Trí tuệ, khiến nó trở thành mô hình trọng số mở thông minh nhất. V3.2-Speciale sử dụng 160M token đầu ra để chạy Chỉ số Trí tuệ Phân tích Nhân tạo, gần ~2x số token được sử dụng bởi V3.2 trong chế độ suy luận. DeepSeek V3.2 sử dụng kiến trúc giống hệt như V3.2-Exp, đã giới thiệu DeepSeek Sparse Attention (DSA) để giảm thiểu tính toán cần thiết cho suy luận ngữ cảnh dài. Thử nghiệm Suy luận Ngữ cảnh Dài của chúng tôi không cho thấy chi phí nào cho trí tuệ khi giới thiệu DSA. DeepSeek đã phản ánh lợi thế chi phí này của V3.2-Exp bằng cách cắt giảm giá trên API của họ từ $0.56/$1.68 xuống $0.28/$0.42 cho mỗi 1 triệu token đầu vào/đầu ra - giảm 50% và 75% giá của token đầu vào và đầu ra tương ứng. Những điểm chính trong thử nghiệm: ➤🧠 DeepSeek V3.2: Trong chế độ suy luận, DeepSeek V3.2 đạt 66 trên Chỉ số Trí tuệ Phân tích Nhân tạo và đứng tương đương với Kimi K2 Thinking (67) và đứng trước Grok 4 (65), Grok 4.1 Nhanh (Suy luận, 64) và Claude Sonnet 4.5 (Suy nghĩ, 63). Nó thể hiện sự nâng cấp đáng kể so với V3.2-Exp (57) trong việc sử dụng công cụ, suy luận ngữ cảnh dài và lập trình. ➤🧠 DeepSeek V3.2-Speciale: V3.2-Speciale đạt điểm cao hơn V3.2 (Suy luận) trên 7 trong số 10 thử nghiệm trong Chỉ số Trí tuệ của chúng tôi. V3.2-Speciale hiện giữ điểm số cao nhất và thứ hai trong số tất cả các mô hình cho AIME25 (97%) và LiveCodeBench (90%) tương ứng. Tuy nhiên, như đã đề cập ở trên, API của DeepSeek cho V3.2-Speciale chưa hỗ trợ gọi công cụ và mô hình nhận được điểm 0 trên thử nghiệm tau2. ➤📚 Ảo giác và Kiến thức: DeepSeek V3.2-Speciale và V3.2 là các mô hình trọng số mở xếp hạng cao nhất trên Chỉ số Toàn tri Nhân tạo với điểm số -19 và -23 tương ứng. Các mô hình độc quyền từ Google, Anthropic, OpenAI và xAI thường dẫn đầu chỉ số này. ➤⚡ Hiệu suất không suy luận: Trong chế độ không suy luận, DeepSeek V3.2 đạt 52 trên Chỉ số Trí tuệ Phân tích Nhân tạo (+6 điểm so với V3.2-Exp) và là mô hình không suy luận thông minh thứ 3. DeepSeek V3.2 (Không suy luận) tương đương với trí tuệ của DeepSeek R1 0528, một mô hình suy luận tiên tiến từ tháng 5 năm 2025, làm nổi bật những tiến bộ trí tuệ nhanh chóng đạt được thông qua việc tiền huấn luyện và cải tiến RL trong năm nay. ➤⚙️ Hiệu quả token: Trong chế độ suy luận, DeepSeek V3.2 sử dụng nhiều token hơn V3.2-Exp để chạy Chỉ số Trí tuệ Phân tích Nhân tạo (từ 62M đến 86M). Việc sử dụng token vẫn tương tự trong biến thể không suy luận. V3.2-Speciale cho thấy việc sử dụng token cao hơn đáng kể, sử dụng ~160M token đầu ra trước Kimi K2 Thinking (140M) và Grok 4 (120M) ➤💲Giá cả: DeepSeek chưa cập nhật giá mỗi token cho API của họ và cả ba biến thể đều có sẵn với giá $0.28/$0.42 cho mỗi 1 triệu token đầu vào/đầu ra Các chi tiết mô hình khác: ➤ ©️ Giấy phép: DeepSeek V3.2 có sẵn theo Giấy phép MIT ➤ 🌐 Sự sẵn có: DeepSeek V3.2 có sẵn qua API của DeepSeek, đã thay thế DeepSeek V3.2-Exp. Người dùng có thể truy cập DeepSeek V3.2-Speciale qua API tạm thời của DeepSeek cho đến ngày 15 tháng 12. Với sự nâng cấp trí tuệ trong bản phát hành này, chúng tôi mong đợi một số nhà cung cấp bên thứ ba sẽ phục vụ mô hình này sớm. ➤ 📏 Kích thước: DeepSeek V3.2 Exp có 671B tham số tổng cộng và 37B tham số hoạt động. Đây là giống như tất cả các mô hình trước đó trong loạt DeepSeek V3 và R1.
Tại mức giá API của DeepSeek là $0.28/$0.42 cho mỗi 1 triệu token đầu vào/đầu ra, V3.2 (Lập luận) nằm trên biên Pareto của biểu đồ Chỉ số Trí tuệ so với Chi phí Vận hành Phân tích Trí tuệ Nhân tạo.
DeepSeek V3.2-Speciale là mô hình trọng số mở có xếp hạng cao nhất trên Chỉ số Toàn diện Phân tích Nhân tạo, trong khi V3.2 (Lập luận) tương đương với Kimi K2 Thinking
DeepSeek V3.2 chi tiết hơn so với phiên bản trước trong chế độ lý luận, sử dụng nhiều token đầu ra hơn để chạy Chỉ số Trí tuệ Phân tích Nhân tạo (86M so với 62M).
So sánh cách mà DeepSeek V3.2 hoạt động so với các mô hình bạn đang sử dụng hoặc đang xem xét tại:
66,98K