Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Los geht's: Mistral 3 führt eine vollständige nächste Generation von Open-Source-Modellen unter der Apache 2.0-Lizenz ein!
Drei kleine dichte "Ministral"-Modelle (3B, 8B, 14B) plus Mistral Large 3, ein grenzwertiger sparsamer MoE mit 41B aktiven / 675B Gesamtparametern, trainiert auf 3000 H200s und veröffentlicht unter Apache 2.0. Large 3 erreicht den Stand der Technik unter den Open-Weight-Instruktionsmodellen, fügt multimodale + mehrsprachige Fähigkeiten hinzu und ist mit NVIDIA (TensorRT-LLM, SGLang, Blackwell-Kerne) für eine effiziente Bereitstellung von Laptops bis zu GB200-Clustern optimiert.
Die Ministral-Modelle bieten ein erstklassiges Kosten-Leistungs-Verhältnis, Multimodalität und neue Denkvarianten – was dies zu einem der stärksten vollständig offenen KI-Releases bis heute macht.
Ja, sie können nicht mit Gemin 3, Opus 4.5 oder GPT-5 hoch konkurrieren, aber sie sind eine großartige offene Alternative, insbesondere im Vergleich zu den chinesischen, und ein großer Vorteil für Europa.

Top
Ranking
Favoriten

