Andiamo: Mistral 3 introduce una famiglia open-source di nuova generazione sotto licenza Apache 2.0! Tre piccoli modelli densi "Ministral" (3B, 8B, 14B) più Mistral Large 3, un MoE sparso di livello frontier con 41B attivi / 675B totali di parametri, addestrato su 3000 H200s e rilasciato sotto Apache 2.0. Large 3 raggiunge lo stato dell'arte tra i modelli di istruzione a peso aperto, aggiunge capacità multimodali e multilingue, ed è ottimizzato con NVIDIA (TensorRT-LLM, SGLang, kernel Blackwell) per un'efficiente distribuzione da laptop a cluster GB200. I modelli Ministral offrono un rapporto costo-prestazioni di prim'ordine, multimodalità e nuove varianti di ragionamento, rendendo questo uno dei più forti rilasci di AI completamente aperti fino ad oggi. Sì, non possono competere con Gemin 3, Opus 4.5 o GPT-5 high, ma sono una grande alternativa aperta, specialmente rispetto a quelle cinesi, e un grande vantaggio per l'Europa.