J'adore ça : un contributeur de la communauté a créé vLLM Playground pour rendre l'inférence visible, interactive et propice aux expériences. Des bascules de configuration visuelles à la génération automatique de commandes, du support GPU/M-chip à l'évaluation GuideLLM + l'intégration de LLMCompressor — cela regroupe tout le cycle de vie de vLLM dans une expérience utilisateur unifiée. Un grand bravo à micyang pour cette contribution réfléchie et soignée. 🔗