Vamos lá: Mistral 3 apresenta uma família completa de código aberto de próxima geração sob a licença Apache 2.0! Três pequenos modelos densos "Ministral" (3B, 8B, 14B) mais o Mistral Large 3, um MoE esparso de nível de fronteira com 41B ativos / 675B parâmetros totais, treinado em 3000 H200s e lançado sob a Apache 2.0. O Large 3 atinge o estado da arte entre os modelos de instrução de peso aberto, adiciona capacidades multimodais + multilíngues e é otimizado com NVIDIA (TensorRT-LLM, SGLang, núcleos Blackwell) para implantação eficiente de laptops a clusters GB200. Os modelos Ministral oferecem uma relação custo-desempenho de classe mundial, multimodalidade e novas variantes de raciocínio—fazendo deste um dos lançamentos de IA totalmente abertos mais fortes até hoje. Sim, eles não conseguem competir com Gemin 3, Opus 4.5 ou GPT-5 alto, mas são uma ótima alternativa aberta, especialmente em comparação com os chineses, e uma grande vantagem para a Europa.