Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
En stor milepæl innen AI i grenseskala har nettopp landet, drevet av AMD.
@ZyphraAI har med suksess trent ZAYA1-Base, den første storskala Mixture-of-Experts (MoE)-grunnmodellen som er trent utelukkende på AMD-plattformen, fra databehandling til nettverk og programvare.
Denne prestasjonen bekrefter det vi har bygget mot: AMD Instinct MI300X GPU-er + Pensando Pollara-nettverk + ROCm-programvare = et produksjonsklart, høyytelses alternativ for storskala AI-trening.
Sammen med @ZyphraAI og @IBM Cloud har vi vært med på å designe og distribuere en klynge som leverer 750+ PFLOPs (Max Achievable FLOPS), med 192 GB HBM-minne, 400 Gbps Pollara NIC-er og en fullt optimalisert ROCm-programvarestakk.
Resultatet:
⚡ En MoE-modell i grenseskala (totalt 8,3 B / 760 M aktiv)
⚡ Konkurranseresonnement, matematikk og kodeprestasjon
⚡ Effektiv lang-kontekst trening (opptil 32 K)
⚡ Gjennombrudd innen nettverk, kjerner og systemdesign
Dette beviser hva som er mulig når AMD-økosystemet samles. AMD-plattformen er klar for neste bølge av AI-innovasjon. Og dette er bare begynnelsen.
Les bloggen fra @EmadBarsoumPi og @KarimBhalwani her:

Topp
Rangering
Favoritter

