Alibaba Group et ses partenaires dévoilent MMR1 : Révolutionner le raisonnement multimodal avec moins de données !
MMR1 introduit l'échantillonnage sensible à la variance (VAS) pour un ajustement stable du RL. S'attaque à l'optimisation instable et aux données de haute qualité rares. Publication de vastes ensembles de données ouverts (~1,6M CoT, 15k RL QA) et de modèles (3B, 7B, 32B) pour la communauté.
Google introduit EmbeddingGemma !
Ce modèle léger d'embedding de texte open source atteint des performances SOTA sur MTEB avec seulement 300 millions de paramètres. Il surpasse des modèles deux fois plus grands et est parfait pour des applications d'IA rapides, efficaces et sur appareil.
OpenBMB lance MiniCPM-V 4.5 : une puissance MLLM efficace
Ce modèle de 8 milliards de paramètres atteint un raisonnement visuel de pointe, surpassant GPT-4o-latest et des modèles plus grands avec une efficacité révolutionnaire.
Son 3D-Resampler permet une compréhension vidéo à haute fréquence d'images et un OCR robuste, même sur votre iPad.