Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Kimi-K2.5 a través de KTransformers+SGLang en una configuración híbrida de descarga de memoria GPU/CPU: 4x RTX Pro 6000 Blackwells + 640GB de RAM
La línea base original se realizó en 8x GPUs utilizando una carga de trabajo de estilo agente de codificación sintética dirigida a 2k-45k tokens de entrada, 80-3k tokens de salida máximos, y con hasta 10 solicitudes concurrentes. Se volvió a ejecutar en la nueva configuración híbrida
Lo mejor que pude obtener:
- 23.03 tokens de salida/s @ 10 solicitudes concurrentes
- TTFT medio: ~60s
- TTFT mediana: ~64s
Resultados de la línea base:
- 74.39 tokens de salida/s @ 10 solicitudes concurrentes
- TTFT medio: ~9s
- TTFT mediana: ~3.7s


26 feb 2026
Pruebas iniciales para Kimi-K2.5 a través de KTransformers+SGLang, en un híbrido 4x RTX Pro 6000 Blackwell + 640GB/1.5TB de memoria de CPU descargada. Cómputo proporcionado por los pods de Lium:
- 19.97 tok/s de salida @ 10 solicitudes concurrentes
- TTFT media: ~120s
- TTFT mediana: ~102s
Necesito jugar con las banderas de KT para optimizar aún más esta configuración, que depende en gran medida del número total de núcleos de CPU del sistema y de la RAM disponible. La interconectividad entre GPU <-> PCIe <-> RAM es el cuello de botella más obvio.
Expertos por capa MoE en GPU:
--kt-num-gpu-experts=128
Núcleos de CPU dedicados a la inferencia MoE:
--kt-cpuinfer=104
Los expertos de CPU trabajan superponiéndose al trabajo de GPU:
--kt-max-deferred-experts-per-token=2
Máx. tokens por fragmento de prellenado:
--chunked-prefill-size=32658
Captura de gráfico CUDA deshabilitada:
--disable-cuda-graph

Comando completo:
export CUDA_VISIBLE_DEVICES=0,1,2,3
export OMP_NUM_THREADS=1
export MKL_NUM_THREADS=1
export OPENBLAS_NUM_THREADS=1
export NUMEXPR_NUM_THREADS=1
export VECLIB_MAXIMUM_THREADS=1
export PYTHONUNBUFFERED=1
exec python -m sglang.launch_server \
--model-path /workspace/models/huggingface/models--moonshotai--Kimi-K2.5/snapshots/54383e83fa343a1331754112fb9e3410c55efa2f \
--kt-weight-path /workspace/models/huggingface/models--moonshotai--Kimi-K2.5/snapshots/54383e83fa343a1331754112fb9e3410c55efa2f \
--kt-threadpool-count 1 \
--kt-method RAWINT4 \
--trust-remote-code \
--served-model-name kimi_k2 \
--tool-call-parser kimi_k2 \
--reasoning-parser kimi_k2 \
--disable-radix-cache \
--disable-chunked-prefix-cache \
--tensor-parallel-size 4 \
--enable-p2p-check \
--disable-shared-experts-fusion \
--disable-cuda-graph \
--host 0.0.0.0 \
--port 8000 \
--kt-cpuinfer 32 \
--kt-num-gpu-experts 128 \
--kt-max-deferred-experts-per-token 2 \
--kt-gpu-prefill-token-threshold 1024 \
--kt-expert-placement-strategy uniform \
--mem-fraction-static 0.92 \
--enable-mixed-chunk \
--chunked-prefill-size 32658 \
--max-total-tokens 200000 \
--attention-backend flashinfer
82
Parte superior
Clasificación
Favoritos