En stor milepæl innen AI i grenseskala har nettopp landet, drevet av AMD. @ZyphraAI har med suksess trent ZAYA1-Base, den første storskala Mixture-of-Experts (MoE)-grunnmodellen som er trent utelukkende på AMD-plattformen, fra databehandling til nettverk og programvare. Denne prestasjonen bekrefter det vi har bygget mot: AMD Instinct MI300X GPU-er + Pensando Pollara-nettverk + ROCm-programvare = et produksjonsklart, høyytelses alternativ for storskala AI-trening. Sammen med @ZyphraAI og @IBM Cloud har vi vært med på å designe og distribuere en klynge som leverer 750+ PFLOPs (Max Achievable FLOPS), med 192 GB HBM-minne, 400 Gbps Pollara NIC-er og en fullt optimalisert ROCm-programvarestakk. Resultatet: ⚡ En MoE-modell i grenseskala (totalt 8,3 B / 760 M aktiv) ⚡ Konkurranseresonnement, matematikk og kodeprestasjon ⚡ Effektiv lang-kontekst trening (opptil 32 K) ⚡ Gjennombrudd innen nettverk, kjerner og systemdesign Dette beviser hva som er mulig når AMD-økosystemet samles. AMD-plattformen er klar for neste bølge av AI-innovasjon. Og dette er bare begynnelsen. Les bloggen fra @EmadBarsoumPi og @KarimBhalwani her: