Alibaba Group og partnere avduker MMR1: Revolusjonerende multimodal resonnement med mindre data!
MMR1 introduserer Variance-Aware Sampling (VAS) for stabil RL-finjustering. Takler ustabil optimalisering og knappe data av høy kvalitet. Utgivelse av massive åpne datasett (~1,6 millioner CoT, 15k RL QA) og modeller (3B, 7B, 32B) for fellesskapet.
Google introduserer EmbeddingGemma!
Denne lette, åpne tekstinnbyggingsmodellen oppnår SOTA-ytelse på MTEB med bare 300 millioner parametere. Den overgår modeller som er dobbelt så store, og er perfekt for raske, effektive AI-applikasjoner på enheten.
OpenBMB lanserer MiniCPM-V 4.5: En effektiv MLLM-kraftpakke
Denne 8B-parametermodellen oppnår toppmoderne visuell resonnement, og overgår GPT-4o-nyeste og større modeller med revolusjonerende effektivitet.
3D-Resampler muliggjør videoforståelse med høy FPS og robust OCR, selv på iPad.