Test iniziali per Kimi-K2.5 tramite KTransformers+SGLang, su un ibrido 4x RTX Pro 6000 Blackwell + 640GB/1.5TB di memoria CPU scaricata. Calcolo fornito dai pod Lium: - 19.97 output tok/s @ 10 richieste concorrenti - TTFT medio: ~120s - TTFT mediano: ~102s Devo giocare con i flag KT per ottimizzare ulteriormente questa configurazione, che dipende fortemente dal numero totale di core CPU del sistema e dalla RAM disponibile. L'interconnettività GPU <-> PCIe <-> RAM è il collo di bottiglia più ovvio. Esperti per strato MoE su GPU: --kt-num-gpu-experts=128 Core CPU dedicati all'inferenza MoE: --kt-cpuinfer=104 Gli esperti CPU lavorano sovrapponendosi al lavoro GPU: --kt-max-deferred-experts-per-token=2 Max token per chunk di prefill: --chunked-prefill-size=32658 Cattura del grafo CUDA disabilitata: --disable-cuda-graph
Yannick Nick
Yannick Nick25 feb 2026
Eseguendo Kimi-K2.5 su 8x RTX Pro 6000 Blackwells, con piani di testare eventualmente una configurazione ibrida di inferenza CPU/GPU tramite KTransformers+SGLang su 4x delle stesse GPU Sono molto curioso di valutare le prestazioni complessive con la configurazione ibrida rispetto a un Kimi-K2.5 quantizzato distribuito su 4 GPU. La configurazione ibrida avrà bisogno di circa 768GB di RAM Per iniziare, ecco un baseline su 8x GPU utilizzando un carico di lavoro in stile agente di codifica sintetico che mira a 2k-45k token di input, 80-3k token di output massimo, e con fino a 10 richieste concorrenti. Il flag --mem-fraction-static di SGLang è impostato a 0.90 Throughput medio di baseline: ~74 token di output/s @ 10 richieste concorrenti
KTransformers+SGLang flag per riprodurre il lavoro: ========== export CUDA_VISIBLE_DEVICES=0,1,2,3 export OMP_NUM_THREADS=1 export MKL_NUM_THREADS=1 export OPENBLAS_NUM_THREADS=1 export NUMEXPR_NUM_THREADS=1 export VECLIB_MAXIMUM_THREADS=1 python -m sglang.launch_server \ --model-path <HF_PATH>/models--moonshotai--Kimi-K2.5/snapshots/3367c8d1c68584429fab7faf845a32d5195b6ac1 \ --kt-weight-path <HF_PATH>/models--moonshotai--Kimi-K2.5/snapshots/3367c8d1c68584429fab7faf845a32d5195b6ac1 \ --kt-cpuinfer 104 \ --kt-threadpool-count 2 \ --kt-num-gpu-experts 128 \ --kt-max-deferred-experts-per-token 2 \ --kt-method RAWINT4 \ --kt-gpu-prefill-token-threshold 400 \ --kt-expert-placement-strategy uniform \ --trust-remote-code \ --mem-fraction-static 0.90 \ --served-model-name kimi_k2 \ --tool-call-parser kimi_k2 \ --reasoning-parser kimi_k2 \ --disable-radix-cache \ --disable-chunked-prefix-cache \ --enable-mixed-chunk \ --tensor-parallel-size 4 \ --enable-p2p-check \ --disable-shared-experts-fusion \ --chunked-prefill-size 32658 \ --max-total-tokens 120000 \ --attention-backend flashinfer \ --disable-cuda-graph \ --host 0.0.0.0 \ --port 8000
151