Skupina Alibaba a partneři odhalují MMR1: Revoluční multimodální uvažování s menším množstvím dat!
MMR1 zavádí vzorkování s ohledem na odchylku (VAS) pro stabilní jemné doladění RL. Řeší nestabilní optimalizaci a nedostatek vysoce kvalitních dat. Uvolnění masivních otevřených datových sad (~1,6 milionu CoT, 15 tisíc RL QA) a modelů (3B, 7B, 32B) pro komunitu.
Google představuje EmbeddingGemma!
Tento odlehčený model s otevřeným vkládáním textu dosahuje výkonu SOTA na MTEB s pouhými 300M parametry. Překonává modely dvakrát větší než je velikost a je ideální pro rychlé a efektivní aplikace umělé inteligence přímo na zařízení.
OpenBMB vydává MiniCPM-V 4.5: Efektivní MLLM motor
Tento model s parametry 8B dosahuje nejmodernějšího vizuálního uvažování a překonává nejnovější modely GPT-4o a větší modely s revoluční účinností.
Jeho 3D převzorkovač umožňuje porozumění videu s vysokým FPS a robustní OCR, a to i na iPadu.