La oss gå: Mistral 3 introduserer en full neste generasjons åpen kildekode-familie under Apache 2.0-lisens! Tre små, tette "Ministral"-modeller (3B, 8B, 14B) pluss Mistral Large 3, en grensenivå sparsom MoE med 41B aktive / 675B totale parametere, trent på 3000 H200 og utgitt under Apache 2.0. Large 3 oppnår toppmoderne blant åpne instruksjonsmodeller, legger til multimodale + flerspråklige funksjoner, og er optimalisert med NVIDIA (TensorRT-LLM, SGLang, Blackwell-kjerner) for effektiv distribusjon fra bærbare til GB200-klynger. Ministral-modellene leverer pris-til-ytelse, multimodalitet og nye resonnementsvarianter – noe som gjør dette til en av de sterkeste fullt åpne AI-utgivelsene til dags dato. Ja, de kan ikke konkurrere med Gemin 3, Opus 4.5 eller GPT-5 High, men de er et flott åpent alternativ, spesielt sammenlignet med de kinesiske, og en stor fordel for Europa.