¡Vamos! Mistral 3 presenta una familia completa de código abierto de próxima generación bajo la licencia Apache 2.0! Tres pequeños modelos densos "Ministral" (3B, 8B, 14B) más Mistral Large 3, un MoE disperso de nivel fronterizo con 41B activos / 675B en total de parámetros, entrenado en 3000 H200s y lanzado bajo Apache 2.0. Large 3 alcanza el estado del arte entre los modelos de instrucción de peso abierto, añade capacidades multimodales y multilingües, y está optimizado con NVIDIA (TensorRT-LLM, SGLang, núcleos Blackwell) para un despliegue eficiente desde portátiles hasta clústeres GB200. Los modelos Ministral ofrecen la mejor relación costo-rendimiento, multimodalidad y nuevas variantes de razonamiento, lo que convierte esto en uno de los lanzamientos de IA totalmente abiertos más fuertes hasta la fecha. Sí, no pueden competir con Gemin 3, Opus 4.5 o GPT-5 alto, pero son una gran alternativa abierta, especialmente en comparación con los modelos chinos, y una gran ventaja para Europa.