让我们开始吧:Mistral 3 引入了一个完整的下一代开源家族,采用 Apache 2.0 许可证! 三个小型密集的“Ministral”模型(3B、8B、14B)加上 Mistral Large 3,一个前沿级稀疏 MoE,具有 41B 活跃参数 / 675B 总参数,训练于 3000 H200s,并在 Apache 2.0 下发布。Large 3 在开放权重指令模型中达到了最先进的水平,增加了多模态 + 多语言能力,并与 NVIDIA(TensorRT-LLM、SGLang、Blackwell 内核)优化,以便从笔记本电脑到 GB200 集群的高效部署。 Ministral 模型提供了最佳的性价比、多模态性和新的推理变体——使其成为迄今为止最强大的完全开放的 AI 发布之一。 是的,它们无法与 Gemin 3、Opus 4.5 或 GPT-5 高级版本竞争,但它们是一个很好的开放替代方案,尤其是与中国的模型相比,对欧洲来说是一个巨大的优势。