Tencent lanza WeDLM-8B-Instruct Un modelo de lenguaje de difusión que funciona de 3 a 6 veces más rápido que Qwen3-8B optimizado para vLLM en tareas de razonamiento matemático. - 3-6 veces más rápido que Qwen3-8B optimizado para vLLM en tareas de razonamiento matemático - Supera al Qwen3-8B-Instruct base en la mayoría de los benchmarks - Compatible con caché KV nativa (FlashAttention, PagedAttention, CUDA Graphs)