DeepSeek V3.2 adalah model bobot terbuka paling cerdas #2 dan juga menempati peringkat di depan Grok 4 dan Claude Sonnet 4.5 (Berpikir) - itu mengambil DeepSeek Sparse Attention dari status 'eksperimental' dan memasangkannya dengan dorongan material untuk kecerdasan @deepseek_ai V3.2 mendapat skor 66 pada Indeks Kecerdasan Analisis Buatan; peningkatan intelijen substansial atas DeepSeek V3.2-Exp (+9 poin) yang dirilis pada September 2025. DeepSeek telah mengalihkan titik akhir API utamanya ke V3.2, tanpa perubahan harga dari harga V3.2-Exp - ini menempatkan harga hanya $0,28/$0,42 per 1 juta token input/output, dengan diskon 90% untuk token input yang di-cache. Sejak rilis DeepSeek V3 asli ~11 bulan yang lalu pada akhir Desember 2024, arsitektur V3 DeepSeek dengan total 671B/parameter aktif 37B telah membuat mereka berubah dari model yang mencetak skor 32 menjadi skor 66 dalam Indeks Kecerdasan Analisis Buatan. DeepSeek juga telah merilis V3.2-Speciale, varian khusus penalaran dengan kemampuan yang ditingkatkan tetapi penggunaan token yang jauh lebih tinggi. Ini adalah tradeoff umum dalam model penalaran, di mana penalaran yang lebih ditingkatkan umumnya menghasilkan skor kecerdasan yang lebih tinggi dan lebih banyak token keluaran. V3.2-Speciale tersedia melalui API pihak pertama DeepSeek hingga 15 Desember. V3.2-Speciale saat ini mendapat skor lebih rendah pada Indeks Kecerdasan Analisis Buatan (59) daripada V3.2 (Reasoning, 66) karena API pihak pertama DeepSeek belum mendukung alat yang memanggil model ini. Jika V3.2-Speciale cocok dengan skor tau2 V3.2 (91%) dengan pemanggilan alat diaktifkan, itu akan mendapat skor ~68 pada Indeks Intelijen, menjadikannya model bobot terbuka yang paling cerdas. V3.2-Speciale menggunakan 160 juta token keluaran untuk menjalankan Indeks Kecerdasan Analisis Buatan, hampir ~2x jumlah token yang digunakan oleh V3.2 dalam mode penalaran. DeepSeek V3.2 menggunakan arsitektur yang identik dengan V3.2-Exp, yang memperkenalkan DeepSeek Sparse Attention (DSA) untuk mengurangi komputasi yang diperlukan untuk inferensi konteks yang panjang. Tolok ukur Penalaran Konteks Panjang kami menunjukkan tidak ada biaya untuk intelijen pengenalan DSA. DeepSeek mencerminkan keunggulan biaya V3.2-Exp ini dengan memangkas harga pada API pihak pertama mereka dari $0,56/$1,68 menjadi $0,28/$0,42 per 1 juta token input/output - pengurangan 50% dan 75% dalam harga token input dan output masing-masing. Poin utama pembandingan: ➤ 🧠 DeepSeek V3.2: Dalam mode penalaran, DeepSeek V3.2 mendapat skor 66 pada Indeks Kecerdasan Analisis Buatan dan menempatkan setara dengan Kimi K2 Thinking (67) dan di depan Grok 4 (65), Grok 4.1 Fast (Reasoning, 64) dan Claude Sonnet 4.5 (Thinking, 63). Ini menunjukkan peningkatan yang signifikan dibandingkan dengan V3.2-Exp (57) di seluruh penggunaan alat, penalaran konteks panjang, dan pengkodean. ➤ 🧠 DeepSeek V3.2-Speciale: V3.2-Speciale mendapat skor lebih tinggi dari V3.2 (Penalaran) di 7 dari 10 tolok ukur dalam Indeks Intelijen kami. V3.2-Speciale sekarang memegang skor tertinggi dan tertinggi kedua di antara semua model untuk AIME25 (97%) dan LiveCodeBench (90%) masing-masing. Namun, seperti disebutkan di atas, API pihak pertama DeepSeek untuk V3.2-Speciale tidak mendukung pemanggilan alat dan model mendapatkan skor 0 pada tolok ukur tau2. ➤ 📚 Halusinasi dan Pengetahuan: DeepSeek V3.2-Speciale dan V3.2 adalah model bobot terbuka peringkat tertinggi pada Indeks Ilmu Pengetahuan Analisis Buatan masing-masing dengan skor -19 dan -23. Model eksklusif dari Google, Anthropic, OpenAI, dan xAI biasanya memimpin indeks ini. ➤ ⚡ Kinerja non-penalaran: Dalam mode non-penalaran, DeepSeek V3.2 mendapat skor 52 pada Indeks Kecerdasan Analisis Buatan (+6 poin vs. V3.2-Exp) dan merupakan model non-penalaran paling cerdas #3. DeepSeek V3.2 (Non-penalaran) cocok dengan kecerdasan DeepSeek R1 0528, model penalaran perbatasan dari Mei 2025, menyoroti keuntungan intelijen cepat yang dicapai melalui pra-pelatihan dan peningkatan RL tahun ini. ➤ ⚙️ Efisiensi token: Dalam mode penalaran, DeepSeek V3.2 menggunakan lebih banyak token daripada V3.2-Exp untuk menjalankan Indeks Kecerdasan Analisis Buatan (dari 62M menjadi 86M). Penggunaan token tetap serupa dalam varian non-penalaran. V3.2-Speciale menunjukkan penggunaan token yang jauh lebih tinggi, menggunakan ~160 juta token keluaran di depan Kimi K2 Thinking (140 juta) dan Grok 4 (120 juta) ➤ 💲Harga: DeepSeek belum memperbarui harga per token untuk pihak pertama mereka dan ketiga varian tersedia dengan harga $0,28/$0,42 per 1 juta token input/output Detail model lainnya: ➤ ©️ Lisensi: DeepSeek V3.2 tersedia di bawah Lisensi MIT ➤ 🌐 Ketersediaan: DeepSeek V3.2 tersedia melalui DeepSeek API, yang telah menggantikan DeepSeek V3.2-Exp. Pengguna dapat mengakses DeepSeek V3.2-Speciale melalui API DeepSeek sementara hingga 15 Desember. Mengingat peningkatan intelijen dalam rilis ini, kami berharap sejumlah penyedia pihak ketiga akan segera melayani model ini. ➤ 📏 Ukuran: DeepSeek V3.2 Exp memiliki 671B total parameter dan 37B parameter aktif. Ini sama dengan semua model sebelumnya dalam seri DeepSeek V3 dan R1
Dengan harga API pihak pertama DeepSeek sebesar $0,28/$0,42 per 1 juta token input/output, V3.2 (Reasoning) berada di perbatasan Pareto dari grafik Indeks Intelijen Kecerdasan vs. Biaya untuk Menjalankan Kecerdasan Analisis Buatan
DeepSeek V3.2-Speciale adalah model bobot terbuka dengan peringkat tertinggi pada Indeks Kemahatahuan Analisis Buatan sedangkan V3.2 (Penalaran) cocok dengan Pemikiran Kimi K2
DeepSeek V3.2 lebih bertele-tele daripada pendahulunya dalam mode penalaran, menggunakan lebih banyak token keluaran untuk menjalankan Indeks Kecerdasan Analisis Buatan (86 juta vs. 62 juta).
Bandingkan performa DeepSeek V3.2 relatif terhadap model yang Anda gunakan atau pertimbangkan di:
66,99K