Wstępne testy dla Kimi-K2.5 za pomocą KTransformers+SGLang, na hybrydowym 4x RTX Pro 6000 Blackwell + 640GB/1.5TB odciążeniu pamięci CPU. Obliczenia dostarczane przez pody Lium: - 19.97 tok/s wyjściowych @ 10 równoczesnych żądań - Średni TTFT: ~120s - Mediana TTFT: ~102s Muszę pobawić się flagami KT, aby dalej zoptymalizować tę konfigurację, która jest mocno uzależniona od ogólnej liczby rdzeni CPU w systemie i dostępnej pamięci RAM. Interkonektowość GPU <-> PCIe <-> RAM jest najbardziej oczywistym wąskim gardłem. Eksperci na warstwie MoE na GPU: --kt-num-gpu-experts=128 Rdzenie CPU dedykowane do wnioskowania MoE: --kt-cpuinfer=104 Eksperci CPU pracują nakładając się na pracę GPU: --kt-max-deferred-experts-per-token=2 Maksymalna liczba tokenów na fragment prefill: --chunked-prefill-size=32658 Przechwytywanie grafu CUDA wyłączone: --disable-cuda-graph
Yannick Nick
Yannick Nick25 lut 2026
Uruchamianie Kimi-K2.5 na 8x RTX Pro 6000 Blackwells, z planami przetestowania hybrydowego ustawienia inferencji CPU/GPU za pomocą KTransformers+SGLang na 4x tych samych GPU Bardzo ciekawi mnie ocena ogólnej wydajności hybrydowego ustawienia w porównaniu do skwantyzowanego dopasowania Kimi-K2.5 na 4 GPU. Hybrydowe ustawienie będzie potrzebować blisko 768GB RAM Na początek oto punkt odniesienia dla 8x GPU przy użyciu syntetycznego obciążenia stylu agenta kodującego, celującego w 2k-45k tokenów wejściowych, 80-3k maksymalnych tokenów wyjściowych i z maksymalnie 10 równoczesnymi żądaniami. Flaga --mem-fraction-static SGLang jest ustawiona na 0.90 Średnia przepustowość punktu odniesienia: ~74 tokeny wyjściowe/s przy 10 równoczesnych żądaniach
KTransformers+SGLang flagi do reprodukcji pracy: ========== export CUDA_VISIBLE_DEVICES=0,1,2,3 export OMP_NUM_THREADS=1 export MKL_NUM_THREADS=1 export OPENBLAS_NUM_THREADS=1 export NUMEXPR_NUM_THREADS=1 export VECLIB_MAXIMUM_THREADS=1 python -m sglang.launch_server \ --model-path <HF_PATH>/models--moonshotai--Kimi-K2.5/snapshots/3367c8d1c68584429fab7faf845a32d5195b6ac1 \ --kt-weight-path <HF_PATH>/models--moonshotai--Kimi-K2.5/snapshots/3367c8d1c68584429fab7faf845a32d5195b6ac1 \ --kt-cpuinfer 104 \ --kt-threadpool-count 2 \ --kt-num-gpu-experts 128 \ --kt-max-deferred-experts-per-token 2 \ --kt-method RAWINT4 \ --kt-gpu-prefill-token-threshold 400 \ --kt-expert-placement-strategy uniform \ --trust-remote-code \ --mem-fraction-static 0.90 \ --served-model-name kimi_k2 \ --tool-call-parser kimi_k2 \ --reasoning-parser kimi_k2 \ --disable-radix-cache \ --disable-chunked-prefix-cache \ --enable-mixed-chunk \ --tensor-parallel-size 4 \ --enable-p2p-check \ --disable-shared-experts-fusion \ --chunked-prefill-size 32658 \ --max-total-tokens 120000 \ --attention-backend flashinfer \ --disable-cuda-graph \ --host 0.0.0.0 \ --port 8000
143