Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Tonggak utama dalam AI skala perbatasan baru saja mendarat, didukung oleh AMD.
@ZyphraAI telah berhasil melatih ZAYA1-Base, model yayasan Mixture-of-Experts (MoE) skala besar pertama yang dilatih sepenuhnya pada platform AMD, mulai dari komputasi hingga jaringan hingga perangkat lunak.
Pencapaian ini memvalidasi apa yang telah kami bangun: GPU AMD Instinct MI300X + jaringan Pensando Pollara + perangkat lunak ROCm = alternatif siap produksi dan berkinerja tinggi untuk pelatihan AI skala besar.
Bersama dengan @ZyphraAI dan @IBM Cloud, kami bersama-sama merancang dan menerapkan klaster yang menghadirkan 750+ PFLOP (Max Achievable FLOPS), memanfaatkan memori HBM 192 GB, NIC Pollara 400 Gbps, dan tumpukan perangkat lunak ROCm yang dioptimalkan sepenuhnya.
Hasilnya:
⚡ Model MoE skala perbatasan (total 8,3 B / 760 M aktif)
⚡ Penalaran kompetitif, matematika, dan kinerja pengkodean
⚡ Pelatihan konteks panjang yang efisien (hingga 32 K)
⚡ Terobosan dalam jaringan, kernel, dan desain sistem
Ini membuktikan apa yang mungkin terjadi ketika ekosistem AMD bersatu. Platform AMD siap untuk gelombang inovasi AI berikutnya. Dan ini baru permulaan.
Baca blog dari @EmadBarsoumPi dan @KarimBhalwani di sini:

Teratas
Peringkat
Favorit

