المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
أصدرت علي بابا 4 طرازات جديدة من Qwen3.5 من 0.8B إلى 9B. النموذج 9B (المنطق، 32 في مؤشر الذكاء) هو النموذج الأكثر ذكاء تحت 10B معلمات، و4B (التفكير، 27) هو الأكثر ذكاء تحت 5B، لكن كلاهما يستخدم رموز إخراج 200M+ لتشغيل مؤشر الذكاء
@Alibaba_Qwen وسعت عائلة Qwen3.5 بأربعة نماذج أصغر كثافة كثافة: 9B (التفكير، 32 في مؤشر الذكاء)، 4B (التفكير، 27)، 2B (التفكير، 16)، و0.8B (التفكير، 9). تكمل هذه الطرازات الأكبر 397B و27B و122B A10B و35B A3B التي صدرت في وقت سابق من هذا الشهر. جميع النماذج مرخصة بنظام Apache 2.0، وتدعم سياق 262K، وتشمل دعم الرؤية الأصلية، وتستخدم نفس النهج الهجين الموحد بين التفكير وعدم التفكير كما في بقية عائلة Qwen3.5
نتائج المقارنة الرئيسية لمتغيرات المنطق:
➤ النماذج 9B و4B هما الأكثر ذكاء في فئات الحجم الخاصة بهما، متقدمين على جميع النماذج الأخرى تحت معايير 10B. Qwen3.5 9B (32) يحقق تقريبا ضعف النماذج الأقرب التالية تحت 10B: فالكون-H1R-7B (16) وNVIDIA Nemotron Nano 9B V2 (Reasoning، 15). Qwen3.5 4B (27) يتفوق على جميع هذه النقاط رغم أن لديه حوالي نصف المعايير. جميع نماذج Qwen3.5 الصغيرة الأربعة تقع على حدود باريتو في مخطط الذكاء مقابل المعلمات الكلية
➤ يمثل جيل Qwen3.5 ارتفاعا في الذكاء المادي مقارنة ب Qwen3 عبر جميع أحجام النماذج تحت 10B، مع مكاسب أكبر عند أعداد معلمات إجمالية أعلى. مقارنة الأنواع المنطقية: Qwen3.5 9B (32) يتقدم ب 15 نقطة على Qwen3 VL 8B (17)، و4B (27) يكسب 9 نقاط على Qwen3 4B 2507 (18)، و2B (16) يتقدم ب 3 نقاط على Qwen3 1.7B (تقدير 13)، و0.8B (9) يكسب 2.5 نقطة عن Qwen3 0.6B (6.5).
➤ جميع النماذج الأربعة تستخدم رموز إخراج تتراوح بين 230-390 مليون لتشغيل مؤشر الذكاء، وهو أكثر بكثير من كل من الأشقاء الأكبر في Qwen3.5 وسابقي Qwen3. استخدم Qwen3.5 2B رموز إخراج ~390M، و4B استخدم ~240M، و0.8B استخدم ~230M، و9B استخدم ~260M. للسياق، استخدم القاطرة الأكبر بكثير Qwen3.5 27B 98M، بينما استخدم الرائد 397B 86M. تتجاوز هذه الرموز أيضا معظم الطرازات الحدودية: Gemini 3.1 Pro Preview (57M)، GPT-5.2 (xhigh، 130M)، وGLM-5 Reasoning (109M)
➤ AA-المعرفة المطلقة هي نقطة ضعف نسبية، حيث تتراوح معدلات الهلوسة بين 80-82٪ للفئتين 4B و9B. Qwen3.5 4B يحصل على درجة -57 في AA-Omniscience مع معدل هلوسة 80٪ ودقة 12.8٪. Qwen3.5 9B يحصل على -56 مع 82٪ هلوسة ودقة 14.7٪. هذه أفضل قليلا من أسلافها في Qwen3 (Qwen3 4B 2507: -61، 84٪ هلوسة، 12.7٪ دقة)، مع تحسن يعود بشكل أساسي إلى انخفاض معدلات الهلوسة بدلا من الدقة الأعلى.
➤ نماذج Qwen3.5 تحت 10B تجمع بين الذكاء العالي والرؤية الأصلية على نطاق لم يكن متاحا من قبل. في MMMU-Pro (الاستدلال متعدد الوسائط)، حصلت Qwen3.5 9B على 69.2٪ و4B 65.4٪، متقدمة على Qwen3 VL 8B (56.6٪)، Qwen3 VL 4B (52.0٪)، وMinistral 3 8B (46.0٪). يحقق Qwen3.5 0.8B نسبة 25.8٪، وهو أمر ملحوظ لنموذج تحت 1B
معلومات أخرى:
➤ نافذة السياق: 262 ألف رمز
➤ الرخصة: Apache 2.0
➤ التكميم: الأوزان الأصلية هي BF16. لم تصدر علي بابا تقطيعات GPTQ-Int4 من الطرف الأول لهذه النماذج الصغيرة، رغم أنها أصدرت للنماذج الأكبر في عائلة Qwen3.5 التي صدرت سابقا (27B، 35B-A3B، 122B-A10B، 397B-A17B). في التكميم 4-بت، جميع النماذج الأربعة متاحة على أجهزة المستهلك
➤ التوفر: عند وقت النشر، لا توجد واجهات برمجة تطبيقات من الطرف الأول أو خارجية بدون خادم تستضيف هذه النماذج

جيل Qwen3.5 هو تغيير خطوة في ذكاء النماذج الصغيرة مقارنة ب Qwen3. يكسب 9B 15 نقطة عن Qwen3 VL 8B (من 17 إلى 32)، ويكسب 4B 9 نقاط على Qwen3 4B 2507 (من 18 إلى 27)، ويكسب 2B 3 نقاط على Qwen3 ب 1.7B (من 13 إلى 16)، ويكسب 0.8B بمقدار 2.5 نقطة على Qwen3 بقيمة 0.6 مليار (6.5 مقابل 9).

تأتي المكاسب الذكية على حساب استخدام الرموز العالية مقارنة بالأقران. جميع نماذج Qwen3.5 الأربعة تحت 10B تستخدم رموز إخراج 230M+ لتشغيل مؤشر الذكاء - وهذا أعلى بكثير من معظم نماذج Frontier وكذلك سابقات Qwen3

نماذج Qwen3.5 و9B و4B هي أكثر النماذج متعددة الوسائط ذكاء تحت معايير 15B. على MMMU-Pro، يتصدر Qwen3.5 9B (69٪) و4B (65٪) جميع الطرازات تحت 15B

تفصيل النتائج الفردية لجميع النماذج الأربعة

قارن بين عائلة Qwen3.5 مع النماذج الرائدة الأخرى على:
8.56K
الأفضل
المُتصدِّرة
التطبيقات المفضلة
