Alibaba Group en partners onthullen MMR1: Revolutionaire multimodale redenering met minder data!
MMR1 introduceert Variance-Aware Sampling (VAS) voor stabiele RL fine-tuning. Tackelt onstabiele optimalisatie en schaarse hoogwaardige data. Vrijgeven van enorme open datasets (~1,6M CoT, 15k RL QA) en modellen (3B, 7B, 32B) voor de gemeenschap.
Google introduceert EmbeddingGemma!
Dit lichte, open tekst-embeddingmodel behaalt SOTA-prestaties op MTEB met slechts 300M parameters. Het presteert beter dan modellen die twee keer zo groot zijn en is perfect voor snelle, efficiënte AI-toepassingen op apparaten.
OpenBMB brengt MiniCPM-V 4.5 uit: Een efficiënte MLLM-krachtpatser
Dit model met 8 miljard parameters bereikt state-of-the-art visueel redeneren en overtreft GPT-4o-latest en grotere modellen met revolutionaire efficiëntie.
De 3D-Resampler maakt hoog-FPS video begrip en robuuste OCR mogelijk, zelfs op je iPad.