Microsoft, ikinci nesil özel yapay zeka çipi Maia 200'ü yeni duyurdu. Bu, bulut bilişim silahlanma yarışında gerçekten önemli bir an. Microsoft'un Maia 200 modeli, Microsoft tarafından tasarlanmış özel bir çiptir ancak TSMC tarafından onların en son 3 nanometre işlem teknolojisiyle üretilmiştir. Şöyle düşünün: Nvidia size hazır bir araba motoru satarsa, Microsoft ise gereken iş için özel olarak kendi motorunu inşa ediyor. Çip, yapay zeka çıkarımı için özel olarak tasarlanmış; yani yanıtları sıfırdan eğitmek yerine yanıtlar üretmek için yapay zeka modellerini çalıştırma süreci. Çip, 26 Ocak 2026'dan itibaren Microsoft'un Iowa'daki veri merkezlerinde kullanıma başladı ve ardından Arizona'ya dağıtımlar yapılacak. Bu çiplerden dördü, her sunucuda birlikte çalışır ve özel teknoloji yerine standart Ethernet kablolarıyla bağlanır; bu da Nvidia'nın yaklaşımına kıyasla maliyetleri ve karmaşıklığı azaltır. Microsoft, Azure'da OpenAI'nin GPT-5.2 modellerini Azure ve Microsoft 365 Copilot üzerinden beslemek için Maia 200'ü zaten kullanıyor. ​ Microsoft, Maia 200'ün Amazon'un Trainium çipinin üç katı üzerinde performans sağladığını ve önemli benchmarklarda Google'ın TPU'sunu geride bıraktığını iddia ediyor. Daha da önemlisi, Microsoft, mevcut donanım filosuna göre dolar başına yüzde 30 daha iyi performans iddia ediyor. Yüzbinlerce çipi yöneten bir bulut şirketi için bu verimlilik avantajı zamanla milyarlarca dolara dönüşüyor. Çip, 216GB ultra hızlı bellek ve 7TB/s bellek bant genişliğine sahiptir. Microsoft bunu açıkça "Nvidia'ya bağımlılığı" azaltmak olarak çerçeveledi ve asıl hikaye bu. Nvidia şu anda yapay zeka hızlandırıcı pazarının yaklaşık %85'ini kontrol ediyor ve donanım satışlarında %73-75 oranında brüt kâr elde ediyor. Ama Nvidia için sorun şu: dört büyük hiper ölçekleyici Microsoft, Meta, Amazon ve Google artık Nvidia'nın gelirinin yüzde 40-50'sini oluşturuyor ve dördü de üretimde özel yapay zeka çipleri dağıtıyor. ...