Tencent lança WeDLM-8B-Instruct Um modelo de linguagem de difusão que roda de 3 a 6× mais rápido que o Qwen3-8B otimizado para vLLM em tarefas de raciocínio matemático. -3-6× mais rápido que o Qwen3-8B otimizado para vLLM em tarefas de raciocínio matemático - Supera o Qwen3-8B-Instruct base na maioria dos benchmarks - Cache KV nativo compatível (FlashAttention, PagedAttention, gráficos CUDA)