Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Первоначальные тесты для Kimi-K2.5 через KTransformers+SGLang, на гибридной системе 4x RTX Pro 6000 Blackwell + 640GB/1.5TB выгрузка памяти CPU. Вычисления предоставлены Lium pods:
- 19.97 токенов/с на выходе при 10 параллельных запросах
- Среднее время TTFT: ~120с
- Медианное время TTFT: ~102с
Необходимо поиграть с флагами KT для дальнейшей оптимизации этой настройки, которая сильно зависит от общего количества ядер CPU и доступной оперативной памяти. Взаимосвязь GPU <-> PCIe <-> RAM является самым очевидным узким местом.
Эксперты на уровне MoE на GPU:
--kt-num-gpu-experts=128
Ядра CPU, выделенные для вывода MoE:
--kt-cpuinfer=104
Эксперты CPU работают параллельно с работой GPU:
--kt-max-deferred-experts-per-token=2
Максимальное количество токенов на предварительном заполнении:
--chunked-prefill-size=32658
Запись графа CUDA отключена:
--disable-cuda-graph


25 февр. 2026 г.
Запуск Kimi-K2.5 на 8x RTX Pro 6000 Blackwells, с планами в конечном итоге протестировать гибридную настройку вывода CPU/GPU через KTransformers+SGLang на 4x тех же GPU
Очень интересно оценить общую производительность гибридной настройки по сравнению с квантованной Kimi-K2.5, настроенной на 4 GPU. Гибридной настройке потребуется около 768 ГБ ОЗУ
Для начала вот базовая линия по 8x GPU, используя синтетическую нагрузку в стиле кодирующего агента, нацеливающуюся на 2k-45k входных токенов, 80-3k максимальных выходных токенов и с до 10 одновременными запросами. Флаг --mem-fraction-static в SGLang установлен на 0.90
Средняя пропускная способность базовой линии:
~74 выходных токена/с при 10 одновременных запросах

Флаги KTransformers+SGLang для воспроизведения работы:
==========
export CUDA_VISIBLE_DEVICES=0,1,2,3
export OMP_NUM_THREADS=1
export MKL_NUM_THREADS=1
export OPENBLAS_NUM_THREADS=1
export NUMEXPR_NUM_THREADS=1
export VECLIB_MAXIMUM_THREADS=1
python -m sglang.launch_server \
--model-path <HF_PATH>/models--moonshotai--Kimi-K2.5/snapshots/3367c8d1c68584429fab7faf845a32d5195b6ac1 \
--kt-weight-path <HF_PATH>/models--moonshotai--Kimi-K2.5/snapshots/3367c8d1c68584429fab7faf845a32d5195b6ac1 \
--kt-cpuinfer 104 \
--kt-threadpool-count 2 \
--kt-num-gpu-experts 128 \
--kt-max-deferred-experts-per-token 2 \
--kt-method RAWINT4 \
--kt-gpu-prefill-token-threshold 400 \
--kt-expert-placement-strategy uniform \
--trust-remote-code \
--mem-fraction-static 0.90 \
--served-model-name kimi_k2 \
--tool-call-parser kimi_k2 \
--reasoning-parser kimi_k2 \
--disable-radix-cache \
--disable-chunked-prefix-cache \
--enable-mixed-chunk \
--tensor-parallel-size 4 \
--enable-p2p-check \
--disable-shared-experts-fusion \
--chunked-prefill-size 32658 \
--max-total-tokens 120000 \
--attention-backend flashinfer \
--disable-cuda-graph \
--host 0.0.0.0 \
--port 8000
153
Топ
Рейтинг
Избранное