Mistral 刚刚推出了他们的新大型开放式哑铃型号 Mistral Large 3(总重量 675B,活跃量 41B),同时推出了三款 Ministral 型号(3B、8B、14B) Mistral 发布了四个模型的 Instruct(非推理)变体,以及三种 Ministral 模型的推理变体。所有型号都支持多模态输入,并且目前在@huggingface平台上已通过Apache 2.0许可提供。我们在发布前评估了Mistral Large 3和三款Ministral型号的Instruct版本。 Mistral在人工智能分析指数中得分最高的模型依然是专有的Magistral Medium 1.2,该版本于几个月前的九月发布——这是因为推理机制赋予模型在我们使用的许多评估中显著优势。Mistral透露,Mistral Large 3的推理版本已经在训练中,我们期待尽快对其进行评估! 主要亮点: † 大模型和小模型:Mistral Large 3 是 Mistral 自 2023 年底至 2024 年初的 Mixtral 8x7B 和 8x22B 以来,首个开放权重专家混合模型。Ministral 版本中包含了 3B、8B 和 14B 参数的变体 † 智能显著提升,但领先模型(包括专有型号)中并未见效:Mistral Large 3 相比之前的 Mistral Large 2 有显著提升,智力指数提升了+11点,最高达38。然而,Large 3 仍然落后于领先的专有推理和非推理模型 † 多功能小型模型:Ministral模型发布时包含基础、指示和推理变体权重——我们在发布前只测试了Instruct版本,指数得分分别为31(14B)、28(8B)和22(3B)。这使得Ministral 14B比之前的Mistral Small 3.2高于前一个,参数减少了40%。我们正在评估这些推理变异,并将很快分享他们的智力结果。 † 多模态能力:发布中的所有型号都支持文本和图像输入——这是Mistral Large 3的一个重要区别,因为其尺寸类别中很少有开放权重模型支持图像输入。上下文长度也增加到256k,支持更大输入任务。 Mistral的新型号与开放式重量竞赛相比并不算是飞跃,但它们代表了强大的性能基础和视觉能力。Ministral 8B和14B变体以其体积表现尤为出色,我们很期待社区如何使用和改进这些车型。 新模型发布时,已可在@MistralAI及包括@awscloud Bedrock、@Azure AI Foundry、@IBMwatsonx、@FireworksAI_HQ、@togethercompute和@modal等多家其他供应商上进行无服务器推理。
Mistral Large 3 在前沿领域落后,但显著的是,它是最智能的开放权重多模态非推理模型之一。DeepSeek(v3.2)和 Moonshot(Kimi K2)最近的模型仍然仅支持文本输入和输出。
由于其小巧的体积,Ministral 发布的模型在智能与成本之间展现出良好的平衡,以显著低于类似模型(如 Qwen3 系列的小型模型,特别是支持图像输入的 VL 变体)的成本完成了指数评估。
Ministral 模型特别适用于需要图像输入和非推理模型的任务。所有三种尺寸相比于谷歌的 Gemma 3 系列(之前是小型多模态模型的首选选项)都有显著升级,并且与阿里巴巴最近发布的 Qwen3 VL 竞争。
Magistral Medium 1.2 仍然是 Mistral 在人工智能分析指数中的整体领先模型。
有关这些新模型及其提供者的进一步分析,请查看我们在人工智能分析上的模型页面: Mistral Large 3: Ministral 14B: Ministral 8B:
8.14K