المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
GLM-5 هو الطراز الجديد الرائد للأوزان المفتوحة! يتصدر GLM-5 مؤشر ذكاء التحليل الاصطناعي بين نماذج الأوزان المفتوحة ويحقق مكاسب كبيرة مقارنة ب GLM-4.7 في GDPval-AA، وهو مؤشر الوكلاء لدينا الذي يركز على المهام العملية ذات القيمة الاقتصادية
تعد GLM-5 أول بنية جديدة في @Zai_org منذ GLM-4.5 - حيث كانت كل من نماذج GLM-4.5 و4.6 و4.7 عبارة عن مزيج إجمالي 355B / 32B معامل نشط من نماذج الخبراء. يتدرج GLM-5 ليصبح 744 مليار إجمالا / 40 مليار نشط، ويدمج DeepSeek Sparse Attention. وهذا يجعل GLM-5 أكثر توافقا مع عدد معاملات عائلة DeepSeek V3 (إجمالي 671 مليار / 37 مليار نشط) وعائلة Kimi K2 من Moonshot (إجمالي 1T، 32B نشط). ومع ذلك، تم إصدار GLM-5 بدقة BF16، حيث يبلغ حجمها ~1.5 تيرابايت - وهو أكبر من نماذج DeepSeek V3 وKimi K2 الحديثة التي تم إصدارها أصليا بدقة FP8 وINT4 على التوالي.
أهم النقاط المستخلصة:
➤ GLM-5 يحصل على تقييم 50 في مؤشر الذكاء وهو القائد الجديد في الأوزان المفتوحة، مرتفعا من درجة GLM-4.7 البالغة 42 - بفارق 8 نقاط مدفوعة بتحسينات في الأداء الوكيلي والمعرفة/الهلوسة. هذه هي المرة الأولى التي يحقق فيها نموذج أوزان مفتوحة درجة 50 أو أكثر في مؤشر الذكاء التحليلي الصناعي v4.0، مما يمثل تقليلا كبيرا للفجوة بين النماذج الخاصة والأوزان المفتوحة. تتفوق على الطرازات الأخرى ذات الأوزان المفتوحة مثل Kimi K2.5 وMiniMax 2.1 وDeepSeek V3.2.
➤ يحقق GLM-5 أعلى درجة في مؤشر التحليل الاصطناعي للعوامل بين نماذج الأوزان المفتوحة بدرجة 63، ليحتل المركز الثالث بشكل عام. ويعود ذلك إلى الأداء القوي في GDPval-AA، وهو مقياسنا الأساسي لأداء الوكلاء العام في مهام العمل المعرفي من إعداد العروض وتحليل البيانات وصولا إلى تحرير الفيديو. يبلغ تصنيف GLM-5 في GDPval-AA ELO 1412، أقل فقط من Claude Opus 4.6 وGPT-5.2 (xhigh). يمثل GLM-5 تحسنا كبيرا في أداء نماذج الأوزان المفتوحة في مهام العمل ذات القيمة الاقتصادية الواقعية
➤ يظهر GLM-5 تحسنا كبيرا في مؤشر AA-العلم الشامل، مدفوعا بانخفاض الهلوسة. حصل GLM-5 على درجة -1 في مؤشر AA-العلم الشامل - وهو تحسن بمقدار 35 نقطة مقارنة ب GLM-4.7 (Reasoning، -36). ويعود ذلك إلى انخفاض معدل الهلوسة بنسبة 56 نقطة مقارنة ب GLM-4.7 (المنطق). يحقق GLM-5 ذلك من خلال الامتناع عن الامتناع بشكل أكثر تكرارا ولديه أقل مستوى من الهلوسة بين النماذج التي تم اختبارها
➤ استخدم GLM-5 رموز إخراج ~110 مليون لتشغيل مؤشر الذكاء، مقارنة برموز إخراج ~170 مليون في GLM-4.7، وهو انخفاض كبير رغم الدرجات الأعلى في معظم التقييمات. هذا يدفع GLM-5 أقرب إلى حدود مخطط الذكاء مقابل رموز الإخراج، لكنه أقل كفاءة في الرموز مقارنة ب Opus 4.6
تفاصيل النموذج الرئيسية:
➤ نافذة السياق: 200 ألف رمز، ما يعادل GLM-4.7
تعدد الوسائط: إدخال وإخراج النص فقط - يظل Kimi K2.5 النموذج الرائد للأوزان المفتوحة لدعم إدخال الصورة
➤ الحجم: 744 مليار معلمة إجمالية، 40 مليار معلمة نشطة. للنشر الذاتي، سيحتاج GLM-5 إلى ~1,490GB من الذاكرة لتخزين الأوزان بدقة BF16 الأصلية
➤ الترخيص: رخصة MIT
التوفر: عند مشاركة هذا التحليل، يتوفر GLM-5 على واجهة برمجة التطبيقات من الطرف الأول من Z AI وعدة واجهات برمجة تطبيقات خارجية مثل @novita_labs (1 دولار/3.2 دولار لكل مليون رمز إدخال/إخراج)، @gmi_cloud (1 دولار/3.2 دولار) و@DeepInfra (0.8 دولار/2.56 دولار)، بدقة FP8
➤ رموز التدريب: أشارت Z AI أيضا إلى زيادة حجم بيانات ما قبل التدريب من 23 إلى 28.5 طن

يظهر GLM-5 تحسنا في مؤشر AA-العلم الشامل، مدفوعا بانخفاض الهلوسة. هذا يعني أن النموذج يمتنع أكثر عن الإجابة على أسئلة لا يعرفها

تفصيل النتائج الكاملة

مستودع GLM-5 HuggingFace:
لمزيد من المعلومات، زور:
14.01K
الأفضل
المُتصدِّرة
التطبيقات المفضلة
