Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨Notícias: A Mistral acabou de eliminar em massa três dos seus próprios modelos
eles pegaram magistral (raciocínio), pixtral (multimodal) e devstral (codificação) e fundiram-nos em um único modelo
mistral small 4
e o timing aqui é interessante
eles também acabaram de anunciar uma parceria estratégica com a NVIDIA para co-desenvolver modelos de código aberto de fronteira
então, como é que o small 4 realmente se parece:
>128 especialistas em uma configuração de mistura de especialistas
>apenas 6B de parâmetros ativos por token de um total de 119B >256k janela de contexto
>apache 2.0 totalmente de código aberto
>40% mais rápido e 3x mais throughput do que o small 3
mas a parte que vale a pena prestar atenção é o parâmetro reasoning_effort
tu podes defini-lo como "nenhum" para respostas rápidas e leves
ou aumentá-lo para "alto" para raciocínio profundo passo a passo
o mesmo modelo fazendo ambos
este é um sinal claro de para onde a IA de código aberto está indo
as empresas já não estão mais mantendo cinco modelos diferentes para cinco tarefas diferentes
um modelo que se adapta com base no que precisas que ele faça...
Top
Classificação
Favoritos
