🚀 vLLM وصلت للتو إلى 70 ألف نجمة على GitHub! 🎉 استمر المحرك في التطور بسرعة منذ آخر إنجاز بارز. لقد كنا ندفع بقوة نحو تقديم الخدمة واسعة النطاق — دعم متعدد العقد على مستوى الإنتاج على NVIDIA Blackwell مع WideEP وتقنية التوازي الخبير، مما يجعل من العملي تقديم أكبر النماذج على نطاق واسع. المزيد من النماذج، المزيد من الأجهزة، جدولة غير متزامنة لمعدل نقل أعلى، بث فوري للكلام والصوت، وقصة متعددة الوسائط متنامية عبر النص والرؤية والفيديو والصوت. شكر كبير لرعاتنا، ومساهمينا البالغ 2,100+، وأصدقائنا في @PyTorch، و@huggingface Transformers، ومختبرات النماذج التي نعمل معها عن كثب لتقديم الدعم في اليوم الأول — @deepseek_ai، @Alibaba_Qwen، @MiniMax_AI، @Kimi_Moonshot، @MistralAI، والشركاء @NVIDIAAIDev @RedHat_AI و@AIatAMD و@AIatMeta وغيرهم الكثيرون الذين لا نستطيع توفيعهم هنا — جميعهم ساعدوا في جلب vLLM إلى المزيد من المنصات والمزيد من الأشخاص. أنت تجعل هذا النظام البيئي ما هو عليه. 💛💙 وخلال هذه الفترة أيضا، تأسست @inferact من قبل مبتكري ومديري VLLM الأساسيين، مكرسين لتطوير vLLM وجعل الاستدلالات أرخص وأسرع. ننتقل إلى الفصل التالي — معا. نموذج LLM سهل وسريع ورخيص للجميع. 🌍