أعلنت مايكروسوفت مؤخرا عن مايا 200، الجيل الثاني من شريحة الذكاء الاصطناعي المخصصة. هذه لحظة مهمة حقا في سباق الحوسبة السحابية. ماياكوست مايا 200 هي شريحة متخصصة صممتها مايكروسوفت لكنها تصنعها TSMC باستخدام تقنية العمليات المتطورة التي تتجاوز 3 نانومتر. فكر في الأمر هكذا، إذا باعتك Nvidia محرك سيارة جاهز، فإن مايكروسوفت تبني محركها الخاص خصيصا للعمل الذي تحتاجه. تم تصميم الشريحة خصيصا لاستنتاج الذكاء الاصطناعي، وهي عملية تشغيل نماذج الذكاء الاصطناعي لتوليد الاستجابات، وليس تدريبها من الصفر. تم تشغيل الشريحة في مراكز بيانات مايكروسوفت في آيوا اعتبارا من 26 يناير 2026، مع عمليات النشر في أريزونا بعد ذلك. تعمل أربع من هذه الشرائح معا في كل خادم، متصلة عبر كابلات إيثرنت قياسية بدلا من التكنولوجيا المملوكة، مما يقلل التكاليف والتعقيد مقارنة بنهج نفيديا. مايكروسوفت تستخدم بالفعل مايا 200 لتشغيل نماذج GPT-5.2 من OpenAI عبر Azure وMicrosoft 365 Copilot. ​ تدعي مايكروسوفت أن مايا 200 يقدم أداء ثلاثة أضعاف شريحة ترينيوم من أمازون ويتفوق على وحدة TPU الخاصة بجوجل في المعايير الرئيسية. والأهم من ذلك، تدعي مايكروسوفت أنها تحقق أداء أفضل بنسبة 30 بالمئة لكل دولار مقارنة بأسطول أجهزتها الحالي. بالنسبة لشركة سحابية تدير مئات الآلاف من الرقائق، فإن ميزة الكفاءة هذه تترجم إلى مليارات الدولارات مع مرور الوقت. تتميز الشريحة بذاكرة فائقة السرعة بسرعة 216 جيجابايت مع عرض نطاق ترددي للذاكرة 7 تيرابايت/ثانية. صارح مايكروسوفت هذا بأنه تقليل "الاعتماد على نفيديا"، وهذه هي القصة الحقيقية. تسيطر نفيديا حاليا على حوالي 85 بالمئة من سوق مسرعات الذكاء الاصطناعي مع هامش ربح إجمالي بنسبة 73-75 بالمئة من مبيعات الأجهزة. لكن المشكلة بالنسبة لشركة نفيديا، جميع الشركات الأربعة الكبرى في السوجن الفائق، مايكروسوفت، ميتا، أمازون، وجوجل تمثل الآن 40-50 بالمئة من إيرادات نفيديا، وجميعها الآن تنشر شرائح الذكاء الاصطناعي المخصصة في الإنتاج. ...