قمنا بتحديث الرسوم البيانية التي نستخدمها لقياس نظام النموذج المفتوح في @interconnectsai، ولتوجيه مشروع ATOM، ولفهم ما يحدث. لدينا ~8 حبكات لتلخيص ما يحدث. أولا، الصورة العامة التي تظهر تزايد تقدم التبني في الصين.
2. عندما تنظر إلى كل منظمة، فإن Qwen هي الأسرع نموا، لكن OpenAI حقق خطوة ذات معنى لم تفعلها العديد من المؤسسات. لا تزال Llama المزود الرائد في الولايات المتحدة، رغم أنها لم تصدر نماذج ناجحة العام الماضي.
3. الوافدين الجدد مثل GLM وMiniMax وKimi وNemotron، رغم النماذج الرائعة، لم يكن لديهم تبني كبير قابل للقياس معه. الأمور تتحسن، لكن هذا المقياس مهم أن نضعه في الاعتبار بالنسبة لكوين/لاما.
4. نقطة ضعف Qwen الوحيدة هي النماذج الكبيرة، حيث تهيمن DeepSeek عليها في إجمالي التنزيلات.
5. يمكننا رؤية هيمنة كوين في تنزيلات ديسمبر، حيث أن 5 نماذج من كوين 3 ((Qwen3-[0.6B، 1.7B، 4B (الأصلي)، 8B، و4B-Instruct-2507)) لديها تنزيلات أكثر من كل موديل من OpenAI، Mistral الذكاء الاصطناعي، Nvidia، Z ai، Moonshot الذكاء الاصطناعي، وMiniMax مجتمعة.
6. إذا قمت بالتكبير إلى جميع النماذج، ستجد أن Qwen لديه تنزيلات أكثر من كل منافس داخل نماذج اللغة الكبيرة.
7. تستغل Qwen هذه ميزة لتكون النموذج الأكثر دقة أيضا.
8. ولا تزال الصين تمتلك أذكى النماذج في معظم المعايير المعيارية، إليكم تصنيفات التحليل الاصطناعي الأخيرة.
للمزيد، راجع المنشور حول الوصلات: أو زيارة
‏‎1.34‏K