Tencent lanza WeDLM-8B-Instruct Un modelo de lenguaje de difusión que funciona entre 3 y 6× más rápido que Qwen3-8B optimizado para vLLM en tareas de razonamiento matemático. -3-6× más rápido que Qwen3-8B optimizado para vLLM en tareas de razonamiento matemático - Supera al Qwen3-8B-Instruct base en la mayoría de los benchmarks - Compatibilidad nativa con caché KV (FlashAttention, PagedAttention, gráficos CUDA)