Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Laten we gaan: Mistral 3 introduceert een volledige next-gen open-source familie onder de Apache 2.0-licentie!
Drie kleine compacte “Ministral” modellen (3B, 8B, 14B) plus Mistral Large 3, een grensverleggende sparse MoE met 41B actieve / 675B totale parameters, getraind op 3000 H200's en vrijgegeven onder Apache 2.0. Large 3 bereikt state-of-the-art onder open-gewicht instructiemodellen, voegt multimodale + meertalige mogelijkheden toe, en is geoptimaliseerd met NVIDIA (TensorRT-LLM, SGLang, Blackwell-kernels) voor efficiënte implementatie van laptops tot GB200-clusters.
De Ministral-modellen bieden de beste prijs-prestatieverhouding, multimodaliteit en nieuwe redeneervarianten - waardoor dit een van de sterkste volledig open AI-releases tot nu toe is.
Ja, ze kunnen niet concurreren met Gemin 3, Opus 4.5 of GPT-5 high, maar ze zijn een geweldig open alternatief, vooral vergeleken met de Chinese, en een groot voordeel voor Europa.

Boven
Positie
Favorieten

