Vamos: ¡Mistral 3 introduce una familia completa de código abierto de nueva generación bajo licencia Apache 2.0! Tres modelos pequeños y densos "Ministral" (3B, 8B, 14B) más Mistral Large 3, un MoE esparso a nivel frontera con 41B activos y 675B parámetros totales, entrenados con 3000 H200 y lanzados bajo Apache 2.0. Large 3 cumple con lo más avanzado entre modelos de instrucciones de peso abierto, añade capacidades multimodales + multilingües y está optimizado con NVIDIA (kernels TensorRT-LLM, SGLang, Blackwell) para un despliegue eficiente desde portátiles en clústeres GB200. Los modelos Ministral ofrecen las mejores variantes de coste-rendimiento, multimodalidad y nuevas variantes de razonamiento, convirtiendo esta en una de las versiones de IA totalmente abiertas más potentes hasta la fecha. Sí, no pueden competir con Gemin 3, Opus 4.5 o GPT-5 alto, pero son una gran alternativa abierta, especialmente comparados con los chinos, y una gran ventaja para Europa.