Adoro isto: um colaborador da comunidade construiu o vLLM Playground para tornar a inferência visível, interativa e amigável para experimentos. Desde alternâncias de configuração visuais até geração automática de comandos, desde suporte a GPU/M-chip até benchmarking do GuideLLM + integração do LLMCompressor — traz todo o ciclo de vida do vLLM para uma experiência unificada. Um enorme agradecimento a micyang por esta contribuição pensada e polida. 🔗