Gânduri despre NVIDIA Rubin și AMD MI455X Să analizăm o comparație între Rubin de la Nvidia și MI455X de la AMD, ambele prezentate astăzi. Începând cu Rubin, utilizează o configurație HBM4 cu 8 stack-uri. Se laudă cu o lățime de bandă a memoriei de 22TB/s, folosind memoria cu un Fmax per pin de aproximativ 10,7Gbps. Pe de altă parte, MI455X optează pentru o configurație HBM4 cu 12 stack-uri. Totuși, oferă o lățime de bandă de 19,6TB/s, folosind memorie cu un Fmax pe pin de aproximativ 6,4Gbps. Având în vedere că standardul actual JEDEC pentru HBM4 este de 8Gbps, diferența este izbitoare: Rubin folosește HBM4 de top, cu specificații superioare, în timp ce MI455X pare să se bazeze pe HBM4 care se află sub specificațiile standard. Acest lucru evidențiază o divergență distinctă în strategia corporativă: utilizarea componentelor de top versus capacitatea de forțare brută. AMD a adoptat probabil această abordare deoarece asigurarea volumului HBM4 la viteză maximă este o provocare pentru ei. Totuși, această strategie implică două riscuri semnificative. În primul rând, implicațiile privind costul și randamentul. Montarea mai multor stack-uri HBM necesită o suprafață mai mare de interposoare, ceea ce crește direct costurile unitare. Mai mult, o amprentă mai mare reduce inevitabil randamentul pentru asamblarea ambalajului 2.5D. Cu alte cuvinte, strategia de a folosi mai multe unități de HBM4 cu specificații mai mici ar putea, paradoxal, să fie mai costisitoare decât strategia Nvidia de a folosi mai puține unități de HBM4 de înaltă gamă. În al doilea rând, impactul în timpul lipsei de memorie. Această abordare agravează blocajele din lanțul de aprovizionare. O configurație cu 12 stive consumă cu 50% mai multe chiplet-uri/stive HBM per GPU comparativ cu un design cu 8 stive. Cu cât aprovizionarea globală de HBM4 este mai strânsă, cu atât volumul de livrare al AMD devine mai limitat de disponibilitatea memoriei. Desigur, în stadiile incipiente, când randamentele pentru HBM4 cu specificații înalte sunt scăzute, acest lucru nu este o problemă majoră — randamentele scăzute pentru piesele din compartimentul superior duc, în mod natural, la o abundență de oferte cu recipiente mai mici. Dar ce se întâmplă pe măsură ce curba de învățare a randamentelor se îmbunătățește? Pe măsură ce randamentele pentru HBM4 de înaltă performanță cresc, furnizorii vor avea mai multe motive să aloce plachete cipurilor cu marjă mai mare destinate Nvidia. Acest lucru face din ce în ce mai dificil pentru AMD să obțină volume mari de HBM4 cu performanțe scăzute la prețuri mici. Mai mult, având în vedere că Samsung performează bine în domeniul HBM4, AMD nu va putea achiziționa stocuri la prețuri de "reducere" așa cum a făcut-o în ciclul HBM3E. În cele din urmă, AMD se confruntă cu o structură de costuri inerent mai dezavantajoasă la nivel de cip comparativ cu Rubin de la Nvidia.