„Przewidywanie następnego tokena” właśnie zyskało poważnego rywala 🤯 Ant Group właśnie wypuścił LLaDA 2.1, który kwestionuje dominujący paradygmat LLM-ów. W przeciwieństwie do większości modeli, które generują jeden token na raz, LLaDA 2.1 wykorzystuje dyfuzję do generowania bloków tekstu równolegle. Dlaczego to zmienia wszystko:  → Globalne planowanie: Efektywnie widzi „przyszłość”, pisząc „przeszłość” → Równoległa generacja: Generuje kawałki równolegle, a nie sekwencyjnie, co jest znacznie szybsze → Ogromna wydajność: Architektura 16B MoE, która wykorzystuje tylko ~1,4B aktywnych parametrów na krok. 100% Open Source.