مجموعة علي بابا وشركاؤها يكشفون النقاب عن MMR1: إحداث ثورة في التفكير متعدد الوسائط ببيانات أقل!
يقدم MMR1 أخذ العينات المدركة للتباين (VAS) لضبط RL المستقر. يعالج التحسين غير المستقر والبيانات النادرة عالية الجودة. إطلاق مجموعات بيانات مفتوحة ضخمة (~ 1.6 مليون CoT ، 15 ألف RL QA) ونماذج (3B ، 7B ، 32B) للمجتمع.
تقدم Google EmbeddingGemma!
يحقق نموذج تضمين النص المفتوح خفيف الوزن هذا أداء SOTA على MTEB مع 300 مليون معلمة فقط. يتفوق على الموديلات ضعف حجمه وهو مثالي لتطبيقات الذكاء الاصطناعي السريعة والفعالة على الجهاز.
OpenBMB تطلق MiniCPM-V 4.5: قوة MLLM فعالة
يحقق نموذج المعلمة 8B هذا أحدث التفكير البصري ، ويتفوق على أحدث طرازات GPT-4o الأكبر حجما بكفاءة ثورية.
يتيح جهاز إعادة أخذ العينات ثلاثي الأبعاد فهما عالي الإطارات للفيديو وتعرف ضوئي على الحروف ، حتى على جهاز iPad.