トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
マイクロソフトは第2世代のカスタムAIチップであるMaia 200を発表しました。
これはクラウドコンピューティングの軍拡競争における本当に重要な瞬間です。
マイクロソフトのMaia 200は、マイクロソフトが設計した特殊なチップですが、TSMCが最先端の3ナノメートルプロセス技術を用いて製造しています。
こう考えてみてください。もしNvidiaが既製の車用エンジンを売っているなら、Microsoftは自社のエンジンを自社で作っているのです。
このチップはAI推論、つまりAIモデルを実際に実行して応答を生成するプロセスのために特別に設計されており、ゼロから訓練するのではありません。
このチップは2026年1月26日からアイオワ州のマイクロソフトデータセンターで稼働を開始し、その後アリゾナ州への展開が予定されています。
これらのチップは4枚ずつ各サーバーで連携し、独自の技術ではなく標準的なイーサネットケーブルで接続されているため、Nvidiaの手法と比べてコストと複雑さが削減されています。
MicrosoftはすでにMaia 200を使ってOpenAIのGPT-5.2モデルをAzureおよびMicrosoft 365 Copilotで動かしています。
マイクロソフトは、Maia 200がAmazonのTrainiumチップの3倍の性能を提供し、GoogleのTPUを重要なベンチマークで上回ると主張しています。
さらに重要なのは、マイクロソフトが現在のハードウェアフリートより1ドルあたり30%のパフォーマンス向上を主張していることです。
数十万台のチップを管理するクラウド企業にとって、その効率化の利点は時間をかけて数十億ドルにつながります。
このチップは216GBの超高速メモリと7TB/sのメモリ帯域幅を搭載しています。
マイクロソフトはこれを「Nvidiaへの依存を減らす」と明確に位置づけており、それが本当の話です。
Nvidiaは現在、AIアクセラレーター市場の約85%を支配しており、ハードウェア販売の総利益率は73〜75%です。
しかし、Nvidiaにとっての問題は、Microsoft、Meta、Amazon、Googleという4大ハイパースケーラーが現在、Nvidiaの収益の40〜50%を占めており、これらすべてがカスタムAIチップを本番環境で導入していることです。
...
トップ
ランキング
お気に入り
