"La predicción del siguiente token" acaba de recibir un rival serio 🤯 Ant Group acaba de lanzar LLaDA 2.1, y desafía el paradigma dominante de los LLMs. A diferencia de la mayoría de los modelos que generan un token a la vez, LLaDA 2.1 utiliza difusión para generar bloques de texto en paralelo. Por qué esto lo cambia todo: → Planificación Global: Efectivamente ve el "futuro" mientras escribe el "pasado" → Generación Paralela: Genera fragmentos en paralelo, no secuencialmente, siendo mucho más rápido → Eficiencia Masiva: Arquitectura MoE de 16B que solo utiliza ~1.4B de parámetros activos por paso. 100% Código Abierto.