熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
Kimi-K2.5 通過 KTransformers+SGLang 在混合 GPU/CPU 記憶體卸載配置上:4x RTX Pro 6000 Blackwells + 640GB RAM
原始基準是在 8x GPU 上使用合成編碼代理樣式工作負載,目標為 2k-45k 輸入標記,80-3k 最大輸出標記,並且最多可同時處理 10 個請求。重新在新的混合設置上運行
我能得到的最佳結果:
- 23.03 輸出標記/秒 @ 10 個同時請求
- 平均 TTFT:~60 秒
- 中位數 TTFT:~64 秒
基準結果:
- 74.39 輸出標記/秒 @ 10 個同時請求
- 平均 TTFT:~9 秒
- 中位數 TTFT:~3.7 秒


2026年2月26日
Kimi-K2.5 的初步測試通過 KTransformers+SGLang,在一個混合的 4x RTX Pro 6000 Blackwell + 640GB/1.5TB CPU 記憶體卸載上進行。計算由 Lium pods 提供:
- 19.97 輸出 tok/s @ 10 個並發請求
- 平均 TTFT: ~120s
- 中位數 TTFT: ~102s
需要調整 KT 標誌以進一步優化此設置,這在很大程度上取決於整體系統的 CPU 核心數量和可用 RAM。GPU <-> PCIe <-> RAM 的互連是最明顯的瓶頸。
每個 MoE 層的專家數量在 GPU 上:
--kt-num-gpu-experts=128
專門用於 MoE 推理的 CPU 核心:
--kt-cpuinfer=104
CPU 專家與 GPU 工作重疊:
--kt-max-deferred-experts-per-token=2
每個預填充塊的最大標記數:
--chunked-prefill-size=32658
禁用 CUDA 圖捕獲:
--disable-cuda-graph

完整命令:
export CUDA_VISIBLE_DEVICES=0,1,2,3
export OMP_NUM_THREADS=1
export MKL_NUM_THREADS=1
export OPENBLAS_NUM_THREADS=1
export NUMEXPR_NUM_THREADS=1
export VECLIB_MAXIMUM_THREADS=1
export PYTHONUNBUFFERED=1
exec python -m sglang.launch_server \
--model-path /workspace/models/huggingface/models--moonshotai--Kimi-K2.5/snapshots/54383e83fa343a1331754112fb9e3410c55efa2f \
--kt-weight-path /workspace/models/huggingface/models--moonshotai--Kimi-K2.5/snapshots/54383e83fa343a1331754112fb9e3410c55efa2f \
--kt-threadpool-count 1 \
--kt-method RAWINT4 \
--trust-remote-code \
--served-model-name kimi_k2 \
--tool-call-parser kimi_k2 \
--reasoning-parser kimi_k2 \
--disable-radix-cache \
--disable-chunked-prefix-cache \
--tensor-parallel-size 4 \
--enable-p2p-check \
--disable-shared-experts-fusion \
--disable-cuda-graph \
--host 0.0.0.0 \
--port 8000 \
--kt-cpuinfer 32 \
--kt-num-gpu-experts 128 \
--kt-max-deferred-experts-per-token 2 \
--kt-gpu-prefill-token-threshold 1024 \
--kt-expert-placement-strategy uniform \
--mem-fraction-static 0.92 \
--enable-mixed-chunk \
--chunked-prefill-size 32658 \
--max-total-tokens 200000 \
--attention-backend flashinfer
83
熱門
排行
收藏