🎉 ¡Felicidades al equipo de Mistral por el lanzamiento de la familia Mistral 3! Estamos orgullosos de compartir que @MistralAI, @NVIDIAAIDev, @RedHat_AI y vLLM trabajaron juntos para ofrecer soporte completo desde el Día 0 para toda la línea de Mistral 3. Esta colaboración permitió: • Puntos de control optimizados NVFP4 (llm-compressor) • Núcleos Sparse MoE para Mistral Large 3 • Servicio desagregado de prellenado/decodificación • Inferencia multimodal + de largo contexto • Inferencia eficiente en A100 / H100 / Blackwell 🙏 Un enorme agradecimiento a @MistralAI, @NVIDIAAIDev y @RedHat_AI por la sólida asociación y el esfuerzo de ingeniería que hicieron posible la optimización del Día 0. Si deseas la ruta de implementación de código abierto más rápida y eficiente para toda la línea de Mistral 3, vLLM está listo hoy.