Alibaba Group e parceiros apresentam o MMR1: Revolucionando o raciocínio multimodal com menos dados!
O MMR1 introduz a Amostragem Consciente de Variância (VAS) para ajuste fino estável de RL. Enfrenta a otimização instável e a escassez de dados de alta qualidade. Lançando enormes conjuntos de dados abertos (~1,6M CoT, 15k RL QA) e modelos (3B, 7B, 32B) para a comunidade.
O Google apresenta o EmbeddingGemma!
Este modelo leve de incorporação de texto atinge um desempenho SOTA no MTEB com apenas 300M de parâmetros. Ele supera modelos com o dobro do seu tamanho e é perfeito para aplicações de IA rápidas, eficientes e em dispositivos.
OpenBMB lança o MiniCPM-V 4.5: Uma potência MLLM eficiente
Este modelo de 8B parâmetros alcança raciocínio visual de última geração, superando o GPT-4o-latest e modelos maiores com eficiência revolucionária.
Seu 3D-Resampler permite compreensão de vídeo em alta FPS e OCR robusto, mesmo no seu iPad.