لنبدأ: Mistral 3 تقدم عائلة كاملة من الجيل القادم من المصادر المفتوحة تحت رخصة Apache 2.0! ثلاثة نماذج صغيرة وكثيفة "Ministral" (3B، 8B، 14B) بالإضافة إلى Mistral Large 3، وهي MoE متفرقة على مستوى الحدود مع 41B نشط / 675B إجمالي معلمات، تم تدريبها على 3000 H200 وصدرت تحت نظام Apache 2.0. يحقق Large 3 أحدث التقنيات بين نماذج التعليم ذات الوزن المفتوح، ويضيف قدرات متعددة الوسائط + متعددة اللغات، ويتم تحسينه باستخدام NVIDIA (TensorRT-LLM، SGLang، Blackwell corenels) لنشر فعال من أجهزة اللابتوب إلى عناقيد GB200. تقدم نماذج Ministral أفضل في فئتها من حيث التكلفة إلى الأداء، وتعدد الوسائط، ونماذج جديدة من حيث المنطق—مما يجعلها واحدة من أقوى إصدارات الذكاء الاصطناعي المفتوح بالكامل حتى الآن. نعم، لا يمكنهم منافسة جيمين 3 أو أوبوس 4.5 أو GPT-5 عالية، لكنهم بديل مفتوح رائع، خاصة مقارنة بالصينيين، وميزة كبيرة لأوروبا.