Adoro isso: um colaborador da comunidade criou o vLLM Playground para tornar a inferência visível, interativa e amigável para experimentos. Desde alternâncias visuais de configuração até geração automática de comandos, desde suporte a GPU/M-chip até benchmarking GuideLLM + integração com LLMCompressor — ele reúne todo o ciclo de vida do vLLM em uma única UX unificada. Um enorme parabéns para micyang por essa contribuição cuidadosa e polida. 🔗