Alibaba Group & Partners meluncurkan MMR1: Merevolusi penalaran multimoda dengan data yang lebih sedikit!
MMR1 memperkenalkan Variance-Aware Sampling (VAS) untuk penyetelan halus RL yang stabil. Mengatasi pengoptimalan yang tidak stabil & data berkualitas tinggi yang langka. Merilis kumpulan data terbuka besar-besaran (~1.6M CoT, 15k RL QA) & model (3B, 7B, 32B) untuk komunitas.
Google memperkenalkan EmbeddingGemma!
Model penyematan teks terbuka yang ringan ini mencapai kinerja SOTA pada MTEB hanya dengan 300 juta parameter. Ini mengungguli model dua kali ukurannya dan sempurna untuk aplikasi AI yang cepat, efisien, dan di perangkat.
OpenBMB merilis MiniCPM-V 4.5: Pembangkit tenaga listrik MLLM yang efisien
Model parameter 8B ini mencapai penalaran visual yang canggih, mengungguli model GPT-4o terbaru dan lebih besar dengan efisiensi revolusioner.
3D-Resampler-nya memungkinkan pemahaman video FPS tinggi dan OCR yang kuat, bahkan di iPad Anda.