Microsoft щойно анонсувала Maia 200 — свій кастомний AI-чіп другого покоління. Це справді значущий момент у гонці озброєнь хмарних обчислень. Maia 200 від Microsoft — це спеціалізований чип, розроблений Microsoft, але виготовлений TSMC із використанням їхньої передової технології 3-нанометрового процесу. Уявіть це так: якщо Nvidia продає вам готовий автомобільний двигун, Microsoft створює власний рушій спеціально для потрібної роботи. Чіп спеціально розроблений для AI-inference — процесу фактичного запуску AI-моделей для генерації відповідей, а не для їх навчання з нуля. Чіп був запущений у дата-центрах Microsoft в Айові починаючи з 26 січня 2026 року, а наступними розгортаннями відбудуться в Арізоні. Чотири з цих чипів працюють разом на кожному сервері, підключені стандартними Ethernet-кабелями замість власної технології, що знижує витрати та складність порівняно з підходом Nvidia. Microsoft вже використовує Maia 200 для роботи моделей OpenAI GPT-5.2 у Azure та Microsoft 365 Copilot. ​ Microsoft стверджує, що Maia 200 забезпечує втричі вищу продуктивність, ніж чіп Trainium від Amazon, і перевершує TPU Google у ключових бенчмарках. Ще важливіше, Microsoft заявляє про 30 відсотків кращу продуктивність на долар, ніж їхній нинішній апаратний парк. Для хмарної компанії, яка керує сотнями тисяч чипів, ця перевага в ефективності з часом означає мільярди доларів. Чіп оснащений 216 ГБ надшвидкої пам'яті з пропускною здатністю 7 ТБ/с. Microsoft чітко сформулювала це як зменшення «залежності від Nvidia», і це справжня історія. Nvidia наразі контролює приблизно 85 відсотків ринку AI-акселераторів із 73-75 відсотками валової маржі від продажу апаратного забезпечення. Але ось у чому проблема для Nvidia: всі чотири основні гіпермасштабери — Microsoft, Meta, Amazon і Google — тепер становлять 40-50 відсотків доходу Nvidia, і всі чотири вже впроваджують власні AI-чипи у виробництві. ...