讓我們開始:Mistral 3 在 Apache 2.0 授權下推出了一個完整的下一代開源家族! 三個小型密集的 "Ministral" 模型(3B、8B、14B)加上 Mistral Large 3,這是一個前沿級的稀疏 MoE,擁有 41B 活躍參數 / 675B 總參數,訓練於 3000 H200s 並在 Apache 2.0 下發布。Large 3 在開放權重指令模型中達到最先進的水平,增加了多模態 + 多語言能力,並與 NVIDIA(TensorRT-LLM、SGLang、Blackwell 核心)優化,以便從筆記本電腦到 GB200 集群的高效部署。 Ministral 模型提供了最佳的成本效益、跨模態和新的推理變體——使這成為迄今為止最強大的完全開放 AI 發布之一。 是的,它們無法與 Gemin 3、Opus 4.5 或 GPT-5 高端競爭,但它們是一個很好的開放替代方案,特別是與中國的相比,對歐洲來說是一個巨大的優勢。