Tencent rilascia WeDLM-8B-Instruct Un modello di linguaggio di diffusione che funziona da 3 a 6 volte più veloce rispetto a Qwen3-8B ottimizzato per vLLM nei compiti di ragionamento matematico. - Da 3 a 6 volte più veloce rispetto a Qwen3-8B ottimizzato per vLLM nei compiti di ragionamento matematico - Supera il Qwen3-8B-Instruct di base nella maggior parte dei benchmark - Compatibile con la cache KV nativa (FlashAttention, PagedAttention, CUDA Graphs)