Adoro questo: un contributore della comunità ha creato vLLM Playground per rendere l'inferenza visibile, interattiva e adatta agli esperimenti. Dai toggle di configurazione visiva alla generazione automatica di comandi, dal supporto GPU/M-chip all'integrazione di GuideLLM benchmarking + LLMCompressor — porta l'intero ciclo di vita di vLLM in un'unica UX unificata. Un grande applauso a micyang per questo contributo riflessivo e curato. 🔗