Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Mistral acaba de lanzar su nuevo modelo de gran peso descubierto, Mistral Large 3 (675 mil millones en total, 41 mil millones activos), junto con un conjunto de tres modelos Ministral (3B, 8B, 14B)
Mistral ha lanzado variantes Instruct (no razonantes) de los cuatro modelos, así como variantes de razonamiento de los tres modelos Ministral. Todos los modelos soportan entradas multimodales y están disponibles hoy con una licencia Apache 2.0 desde @huggingface. Evaluamos Mistral Large 3 y las variantes Instruct de los tres modelos Ministral antes del lanzamiento.
El modelo con mayor puntuación de Mistral en el Índice de Inteligencia de Análisis Artificial sigue siendo el propietario Magistral Medium 1.2, lanzado hace un par de meses en septiembre; esto se debe a que el razonamiento otorga a los modelos una ventaja significativa en muchas de las evaluaciones que utilizamos. Mistral revela que una versión de razonamiento de Mistral Large 3 ya está en entrenamiento y esperamos poder evaluarla pronto.
Aspectos clave:
➤ Modelos grandes y pequeños: con un total de 675B y 41B activos, Mistral Large 3 es el primer modelo de mezcla de expertos en peso abierto de Mistral desde Mixtral 8x7B y 8x22B a finales de 2023 y principios de 2024. Las versiones Ministral están densas en variantes de parámetros 3B, 8B y 14B
➤ Aumento significativo de la inteligencia pero no entre los modelos líderes (incluidos los propietarios): Mistral Large 3 representa una mejora significativa en comparación con el anterior Mistral Large 2, con un aumento de +11 puntos en el Índice de Inteligencia hasta 38. Sin embargo, Large 3 sigue quedando por detrás de los modelos de razonamiento propietario y no razonamiento que lideran
➤ Modelos pequeños versátiles: los modelos Ministral se lanzan con pesos variantes Base, Instruct y Reasoning; probamos solo las variantes Instruct antes del lanzamiento, que lograron puntuaciones Index de 31 (14B), 28 (8B) y 22 (3B). Esto sitúa a Ministral 14B por delante del anterior Mistral Small 3.2, con un 40% menos de parámetros. Estamos trabajando en la evaluación de las variantes de razonamiento y pronto compartiremos sus resultados de inteligencia.
➤ Capacidades multimodales: todos los modelos de la versión admiten entrada de texto e imagen; esto es un diferenciador importante para Mistral Large 3, ya que pocos modelos de peso abierto en su clase de tamaño soportan entrada de imagen. La longitud del contexto también aumenta hasta 256k, permitiendo tareas de entrada más grande.
Estos nuevos modelos de Mistral no suponen un cambio radical respecto a la competición de pesos abiertos, pero representan una base sólida de rendimiento con capacidades visuales. Las variantes Ministral 8B y 14B ofrecen un rendimiento especialmente atractivo para su tamaño, y estamos deseando ver cómo la comunidad utiliza y desarrolla estos modelos.
En el lanzamiento, los nuevos modelos están disponibles para inferencia sin servidor en @MistralAI y en una variedad de otros proveedores, incluyendo @awscloud Bedrock, @Azure AI Foundry, @IBMwatsonx, @FireworksAI_HQ, @togethercompute y @modal.

Mistral Large 3 sigue la frontera, pero es notablemente uno de los modelos multimodales no razonantes de peso abierto más inteligentes. Los modelos recientes de DeepSeek (v3.2) y Moonshot (Kimi K2) siguen soportando solo entrada y salida de texto.

Debido a su pequeño tamaño, las versiones de Ministral muestran un sólido equilibrio entre inteligencia y coste, completando las evaluaciones del Índice a un coste sustancialmente inferior al de modelos comparables como los pequeños modelos de la familia Qwen3, especialmente las variantes VL que soportan entradas de imagen como Ministral.

Los modelos ministeriales se diferencian especialmente para tareas que requieren entradas de imagen y un modelo no razonante. Los tres tamaños suponen una mejora significativa respecto a la familia Gemma 3 de Google (que antes era una opción habitual para modelos multimodales pequeños) y son competitivos con los recientes lanzamientos Qwen3 VL de Alibaba.

El Magistral Medium 1.2 sigue siendo el modelo líder global de Mistral en el Índice de Inteligencia de Análisis Artificial.

Para un análisis más detallado de estos nuevos modelos y de sus proveedores a medida que surgen, consulta nuestras páginas de modelos sobre Análisis Artificial:
Mistral Grande 3:
Ministral 14B:
Ministro 8B:
8.17K
Populares
Ranking
Favoritas

