🚨Notícias: A Mistral acabou de eliminar em massa três dos seus próprios modelos eles pegaram magistral (raciocínio), pixtral (multimodal) e devstral (codificação) e fundiram-nos em um único modelo mistral small 4 e o timing aqui é interessante eles também acabaram de anunciar uma parceria estratégica com a NVIDIA para co-desenvolver modelos de código aberto de fronteira então, como é que o small 4 realmente se parece: >128 especialistas em uma configuração de mistura de especialistas >apenas 6B de parâmetros ativos por token de um total de 119B >256k janela de contexto >apache 2.0 totalmente de código aberto >40% mais rápido e 3x mais throughput do que o small 3 mas a parte que vale a pena prestar atenção é o parâmetro reasoning_effort tu podes defini-lo como "nenhum" para respostas rápidas e leves ou aumentá-lo para "alto" para raciocínio profundo passo a passo o mesmo modelo fazendo ambos este é um sinal claro de para onde a IA de código aberto está indo as empresas já não estão mais mantendo cinco modelos diferentes para cinco tarefas diferentes um modelo que se adapta com base no que precisas que ele faça...