Mistral hat gerade ihr neues großes Open-Weights-Modell, Mistral Large 3 (675B insgesamt, 41B aktiv), zusammen mit einer Reihe von drei Ministral-Modellen (3B, 8B, 14B) auf den Markt gebracht. Mistral hat Instruct (nicht schlussfolgernd) Varianten aller vier Modelle veröffentlicht, sowie schlussfolgernde Varianten der drei Ministral-Modelle. Alle Modelle unterstützen multimodale Eingaben und sind heute mit einer Apache 2.0-Lizenz auf @huggingface verfügbar. Wir haben Mistral Large 3 und die Instruct-Varianten der drei Ministral-Modelle vor der Markteinführung bewertet. Mistrals bestbewertetes Modell im Artificial Analysis Intelligence Index bleibt das proprietäre Magistral Medium 1.2, das vor ein paar Monaten im September eingeführt wurde - dies liegt daran, dass schlussfolgerndes Denken den Modellen in vielen von uns verwendeten Bewertungen einen erheblichen Vorteil verschafft. Mistral gibt bekannt, dass eine schlussfolgernde Version von Mistral Large 3 bereits in der Ausbildung ist, und wir freuen uns darauf, sie bald zu bewerten! Wichtige Highlights: ➤ Große und kleine Modelle: Mit 675B insgesamt und 41B aktiv ist Mistral Large 3 Mistrals erstes Open-Weights-Mixture-of-Experts-Modell seit Mixtral 8x7B und 8x22B von Ende 2023 bis Anfang 2024. Die Ministral-Veröffentlichungen sind dicht mit 3B, 8B und 14B Parameter-Varianten. ➤ Bedeutender Anstieg der Intelligenz, aber nicht unter den führenden Modellen (einschließlich proprietärer): Mistral Large 3 stellt ein bedeutendes Upgrade im Vergleich zum vorherigen Mistral Large 2 dar, mit einem Anstieg von +11 Punkten im Intelligence Index auf 38. Dennoch liegt Large 3 hinter den führenden proprietären schlussfolgernden und nicht schlussfolgernden Modellen zurück. ➤ Vielseitige kleine Modelle: Die Ministral-Modelle werden mit Basis-, Instruct- und Reasoning-Varianten veröffentlicht - wir haben vor der Veröffentlichung nur die Instruct-Varianten getestet, die Indexwerte von 31 (14B), 28 (8B) und 22 (3B) erreichten. Dies platziert Ministral 14B vor dem vorherigen Mistral Small 3.2 mit 40% weniger Parametern. Wir arbeiten daran, die schlussfolgernden Varianten zu bewerten und werden ihre Intelligenz-Ergebnisse bald teilen. ➤ Multi-modale Fähigkeiten: Alle Modelle in der Veröffentlichung unterstützen Text- und Bildeingaben - dies ist ein bedeutender Unterscheidungsfaktor für Mistral Large 3, da nur wenige Open-Weight-Modelle in seiner Größenklasse Unterstützung für Bildeingaben haben. Die Kontextlänge erhöht sich ebenfalls auf 256k, was größere Eingabearbeiten ermöglicht. Diese neuen Modelle von Mistral sind kein Schrittwechsel im Wettbewerb der Open Weights, aber sie stellen eine starke Leistungsbasis mit Vision-Fähigkeiten dar. Die Varianten 8B und 14B von Ministral bieten besonders überzeugende Leistungen für ihre Größe, und wir sind gespannt, wie die Community diese Modelle nutzt und darauf aufbaut. Bei der Markteinführung sind die neuen Modelle für serverlose Inferenz auf @MistralAI und einer Reihe anderer Anbieter einschließlich @awscloud Bedrock, @Azure AI Foundry, @IBMwatsonx, @FireworksAI_HQ, @togethercompute und @modal verfügbar.
Mistral Large 3 liegt an der Spitze, ist aber bemerkenswerterweise eines der intelligentesten offenen Gewichtsmultimodell-Modelle ohne Schlussfolgerungen. Neueste Modelle von DeepSeek (v3.2) und Moonshot (Kimi K2) unterstützen weiterhin nur Texteingabe und -ausgabe.
Aufgrund ihrer geringen Größe bieten die Ministral-Versionen ein solides Verhältnis von Intelligenz zu Kosten und führen die Indexbewertungen zu einem erheblich niedrigeren Preis durch als vergleichbare Modelle wie die kleinen Modelle der Qwen3-Familie - insbesondere die VL-Varianten, die Bild-Eingaben wie Ministral unterstützen.
Die Ministral-Modelle sind besonders differenziert für Aufgaben, die Bildinputs und ein nicht-argumentierendes Modell erfordern. Alle drei Größen sind ein bedeutendes Upgrade gegenüber Googles Gemma 3-Familie (früher eine bevorzugte Option für kleine multimodale Modelle) und sind wettbewerbsfähig mit den aktuellen Qwen3 VL-Veröffentlichungen von Alibaba.
Magistral Medium 1.2 bleibt das führende Modell von Mistral im Index für Künstliche Intelligenz.
Für eine weitere Analyse dieser neuen Modelle und Anbieter, während sie entstehen, siehe unsere Modellseiten zur Künstlichen Analyse: Mistral Large 3: Ministral 14B: Ministral 8B:
8,17K