Tencent släpper WeDLM-8B-Instruct En diffusionsspråkmodell som körs 3–6 × snabbare än vLLM-optimerade Qwen3-8B på matematiska resonemangsuppgifter. -3-6× snabbare än vLLM-optimerade Qwen3-8B på matematiska resonemangsuppgifter - Överträffar bas-Qwen3-8B-Instruct på de flesta benchmarks - Inbyggd KV-cache-kompatibel (FlashAttention, PagedAttention, CUDA Graphs)