Microsoft hat gerade Maia 200 angekündigt, seinen zweiten Generation benutzerdefinierten KI-Chip. Dies ist ein wirklich bedeutender Moment im Wettlauf um Cloud-Computing. Microsofts Maia 200 ist ein spezialisierter Chip, der von Microsoft entworfen, aber von TSMC mit deren hochmodernen 3-Nanometer-Prozesstechnologie hergestellt wird. Stellen Sie sich das so vor: Wenn Nvidia Ihnen einen vorgefertigten Motor verkauft, baut Microsoft seinen eigenen Motor speziell für die Aufgabe, die erledigt werden muss. Der Chip ist speziell für KI-Inferenz ausgelegt, den Prozess, tatsächlich KI-Modelle auszuführen, um Antworten zu generieren, nicht um sie von Grund auf zu trainieren.​​ Der Chip wurde am 26. Januar 2026 in Microsofts Rechenzentren in Iowa in Betrieb genommen, mit Einsätzen in Arizona, die als Nächstes kommen. Vier dieser Chips arbeiten in jedem Server zusammen, verbunden über Standard-Ethernet-Kabel anstelle proprietärer Technologien, was die Kosten und die Komplexität im Vergleich zu Nvidias Ansatz reduziert. Microsoft nutzt bereits Maia 200, um OpenAIs GPT-5.2-Modelle über Azure und Microsoft 365 Copilot zu betreiben. ​ Microsoft behauptet, dass Maia 200 die dreifache Leistung von Amazons Trainium-Chip liefert und Googles TPU in wichtigen Benchmarks übertrifft. Wichtiger ist, dass Microsoft 30 Prozent bessere Leistung pro Dollar als ihre aktuelle Hardwareflotte beansprucht. Für ein Cloud-Unternehmen, das Hunderttausende von Chips verwaltet, übersetzt sich dieser Effizienzvorteil im Laufe der Zeit in Milliarden von Dollar. Der Chip verfügt über 216 GB ultraschnellen Speicher mit 7 TB/s Speicherbandbreite.​ Microsoft hat dies ausdrücklich als Reduzierung der "Abhängigkeit von Nvidia" formuliert, und das ist die eigentliche Geschichte. Nvidia kontrolliert derzeit etwa 85 Prozent des Marktes für KI-Beschleuniger mit 73-75 Prozent Bruttomargen bei Hardwareverkäufen. Aber hier ist das Problem für Nvidia: Alle vier großen Hyperscaler, Microsoft, Meta, Amazon und Google, repräsentieren jetzt 40-50 Prozent von Nvidias Umsatz, und alle vier setzen jetzt benutzerdefinierte KI-Chips in der Produktion ein.​ ...