Первоначальные тесты для Kimi-K2.5 через KTransformers+SGLang, на гибридной системе 4x RTX Pro 6000 Blackwell + 640GB/1.5TB выгрузка памяти CPU. Вычисления предоставлены Lium pods: - 19.97 токенов/с на выходе при 10 параллельных запросах - Среднее время TTFT: ~120с - Медианное время TTFT: ~102с Необходимо поиграть с флагами KT для дальнейшей оптимизации этой настройки, которая сильно зависит от общего количества ядер CPU и доступной оперативной памяти. Взаимосвязь GPU <-> PCIe <-> RAM является самым очевидным узким местом. Эксперты на уровне MoE на GPU: --kt-num-gpu-experts=128 Ядра CPU, выделенные для вывода MoE: --kt-cpuinfer=104 Эксперты CPU работают параллельно с работой GPU: --kt-max-deferred-experts-per-token=2 Максимальное количество токенов на предварительном заполнении: --chunked-prefill-size=32658 Запись графа CUDA отключена: --disable-cuda-graph
Yannick Nick
Yannick Nick25 февр. 2026 г.
Запуск Kimi-K2.5 на 8x RTX Pro 6000 Blackwells, с планами в конечном итоге протестировать гибридную настройку вывода CPU/GPU через KTransformers+SGLang на 4x тех же GPU Очень интересно оценить общую производительность гибридной настройки по сравнению с квантованной Kimi-K2.5, настроенной на 4 GPU. Гибридной настройке потребуется около 768 ГБ ОЗУ Для начала вот базовая линия по 8x GPU, используя синтетическую нагрузку в стиле кодирующего агента, нацеливающуюся на 2k-45k входных токенов, 80-3k максимальных выходных токенов и с до 10 одновременными запросами. Флаг --mem-fraction-static в SGLang установлен на 0.90 Средняя пропускная способность базовой линии: ~74 выходных токена/с при 10 одновременных запросах
Флаги KTransformers+SGLang для воспроизведения работы: ========== export CUDA_VISIBLE_DEVICES=0,1,2,3 export OMP_NUM_THREADS=1 export MKL_NUM_THREADS=1 export OPENBLAS_NUM_THREADS=1 export NUMEXPR_NUM_THREADS=1 export VECLIB_MAXIMUM_THREADS=1 python -m sglang.launch_server \ --model-path <HF_PATH>/models--moonshotai--Kimi-K2.5/snapshots/3367c8d1c68584429fab7faf845a32d5195b6ac1 \ --kt-weight-path <HF_PATH>/models--moonshotai--Kimi-K2.5/snapshots/3367c8d1c68584429fab7faf845a32d5195b6ac1 \ --kt-cpuinfer 104 \ --kt-threadpool-count 2 \ --kt-num-gpu-experts 128 \ --kt-max-deferred-experts-per-token 2 \ --kt-method RAWINT4 \ --kt-gpu-prefill-token-threshold 400 \ --kt-expert-placement-strategy uniform \ --trust-remote-code \ --mem-fraction-static 0.90 \ --served-model-name kimi_k2 \ --tool-call-parser kimi_k2 \ --reasoning-parser kimi_k2 \ --disable-radix-cache \ --disable-chunked-prefix-cache \ --enable-mixed-chunk \ --tensor-parallel-size 4 \ --enable-p2p-check \ --disable-shared-experts-fusion \ --chunked-prefill-size 32658 \ --max-total-tokens 120000 \ --attention-backend flashinfer \ --disable-cuda-graph \ --host 0.0.0.0 \ --port 8000
153