Alibaba Group & partners presentan MMR1: ¡Revolucionando el razonamiento multimodal con menos datos!
MMR1 introduce el muestreo consciente de la varianza (VAS) para un ajuste fino estable de RL. Aborda la optimización inestable y los escasos datos de alta calidad. Lanzamiento masivo de conjuntos de datos abiertos (~1.6M CoT, 15k RL QA) y modelos (3B, 7B, 32B) para la comunidad.
¡Google presenta EmbeddingGemma!
Este modelo de incrustación de texto abierto y liviano logra un rendimiento SOTA en MTEB con solo 300 millones de parámetros. Supera a los modelos del doble de su tamaño y es perfecto para aplicaciones de IA rápidas, eficientes y en el dispositivo.
OpenBMB lanza MiniCPM-V 4.5: una potencia MLLM eficiente
Este modelo de parámetros 8B logra un razonamiento visual de última generación, superando a los últimos modelos y más grandes de GPT-4o con una eficiencia revolucionaria.
Su 3D-Resampler permite una comprensión de video de alto FPS y un OCR robusto, incluso en su iPad.