Alibaba Group e partner presentano MMR1: Rivoluzionare il ragionamento multimodale con meno dati!
MMR1 introduce il Campionamento Consapevole della Varianza (VAS) per un affinamento stabile del RL. Affronta l'ottimizzazione instabile e la scarsità di dati di alta qualità. Rilascio di enormi dataset aperti (~1,6M CoT, 15k RL QA) e modelli (3B, 7B, 32B) per la comunità.
Google introduce EmbeddingGemma!
Questo modello di embedding testuale leggero e open source raggiunge prestazioni SOTA su MTEB con solo 300M di parametri. Supera modelli di dimensioni doppie e è perfetto per applicazioni AI veloci, efficienti e su dispositivo.
OpenBMB rilascia MiniCPM-V 4.5: una potente MLLM efficiente
Questo modello da 8 miliardi di parametri raggiunge prestazioni all'avanguardia nel ragionamento visivo, superando GPT-4o-latest e modelli più grandi con un'efficienza rivoluzionaria.
Il suo 3D-Resampler consente una comprensione video ad alta FPS e un OCR robusto, anche sul tuo iPad.