"Prediksi token berikutnya" baru saja mendapat saingan 🤯 serius Ant Group baru saja menjatuhkan LLaDA 2.1, dan menantang paradigma dominan LLM. Tidak seperti kebanyakan model yang menghasilkan satu token pada satu waktu, LLaDA 2.1 menggunakan difusi untuk menghasilkan blok teks secara paralel. Mengapa ini mengubah segalanya:  → Perencanaan Global: Secara efektif melihat "masa depan" sambil menulis "masa lalu" → Generasi Paralel: Ini menghasilkan potongan secara paralel, tidak secara berurutan, jauh lebih cepat → Efisiensi Besar: Arsitektur MoE 16B yang hanya menggunakan ~1,4B parameter aktif per langkah. 100% Sumber Terbuka.