AMDが推進する、最先端のAIにおける大きな節目がついに実現しました。 @ZyphraAIは、計算からネットワーク、ソフトウェアに至るまでAMDプラットフォーム上で完全に訓練された初の大規模Mixture-of-Experts(MoE)基盤モデルであるZAYA1-Baseのトレーニングに成功しました。 この成果は、私たちがこれまで築いてきた目標を裏付けています:AMD Instinct MI300X GPU + Pensando Pollara Networking + ROCm ソフトウェア = 大規模AIトレーニングのための本番対応で高性能な代替手段。 @ZyphraAIおよび@IBM Cloudと共に、192GB HBMメモリ、400GbpsのPollara NIC、そして完全に最適化されたROCmソフトウェアスタックを活用し、750+ PFLOP(最大達成可能FLOPS)を提供するクラスターを共同設計・展開しました。 その結果: ⚡ フロンティアスケールのMoEモデル(総面積8.3B/稼働760M) ⚡ 競争的推論、数学、コーディングの成績 ⚡ 効率的な長文脈トレーニング(最大32K) ⚡ ネットワーク、カーネル、システム設計におけるブレイクスルー これはAMDエコシステムが一つにならば何が可能かを証明しています。AMDプラットフォームは次のAIイノベーションの波に備えています。そして、これはほんの始まりに過ぎません。 @EmadBarsoumPiと@KarimBhalwaniのブログはこちらからお読みいただけます: