Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Vamos lá: Mistral 3 apresenta uma família completa de código aberto de próxima geração sob a licença Apache 2.0!
Três pequenos modelos densos "Ministral" (3B, 8B, 14B) mais o Mistral Large 3, um MoE esparso de nível de fronteira com 41B ativos / 675B parâmetros totais, treinado em 3000 H200s e lançado sob a Apache 2.0. O Large 3 atinge o estado da arte entre os modelos de instrução de peso aberto, adiciona capacidades multimodais + multilíngues e é otimizado com NVIDIA (TensorRT-LLM, SGLang, núcleos Blackwell) para implantação eficiente de laptops a clusters GB200.
Os modelos Ministral oferecem uma relação custo-desempenho de classe mundial, multimodalidade e novas variantes de raciocínio—fazendo deste um dos lançamentos de IA totalmente abertos mais fortes até hoje.
Sim, eles não conseguem competir com Gemin 3, Opus 4.5 ou GPT-5 alto, mas são uma ótima alternativa aberta, especialmente em comparação com os chineses, e uma grande vantagem para a Europa.

Top
Classificação
Favoritos

