Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Myśli na temat NVIDIA Rubin i AMD MI455X
Zanurzmy się w porównanie między Rubin od Nvidii a MI455X od AMD, które zostały zaprezentowane dzisiaj.
Zaczynając od Rubina, wykorzystuje on konfigurację 8-stack HBM4. Może pochwalić się przepustowością pamięci wynoszącą 22TB/s, wykorzystując pamięć o Fmax na pin wynoszącym około 10.7Gbps.
Z drugiej strony, MI455X wybiera konfigurację 12-stack HBM4. Jednak dostarcza przepustowość wynoszącą 19.6TB/s, używając pamięci o Fmax na pin wynoszącym około 6.4Gbps.
Biorąc pod uwagę, że obecny standard JEDEC dla HBM4 wynosi 8Gbps, różnica jest wyraźna: Rubin wykorzystuje komponenty najwyższej klasy, podczas gdy MI455X wydaje się polegać na HBM4, który nie spełnia standardowych specyfikacji.
To podkreśla wyraźną różnicę w strategii korporacyjnej: używanie komponentów najwyższej klasy vs. brutalne zwiększanie pojemności.
AMD prawdopodobnie przyjęło takie podejście, ponieważ zabezpieczenie dużych ilości pamięci HBM4 o najwyższej prędkości jest dla nich wyzwaniem. Jednak ta strategia niesie ze sobą dwa istotne ryzyka.
Po pierwsze, implikacje kosztowe i wydajnościowe. Montaż większej liczby stosów HBM wymaga większego obszaru interposera, co bezpośrednio podnosi koszty jednostkowe. Ponadto, większa powierzchnia nieuchronnie obniża wydajność montażu w technologii 2.5D. Innymi słowy, strategia używania większej liczby jednostek niższej specyfikacji HBM4 może paradoksalnie okazać się droższa niż strategia Nvidii, polegająca na używaniu mniejszej liczby jednostek o wysokiej specyfikacji HBM4.
Po drugie, wpływ podczas niedoborów pamięci. To podejście pogłębia wąskie gardła w łańcuchu dostaw. Konfiguracja 12-stack zużywa o 50% więcej chipletów/stosów HBM na GPU w porównaniu do konstrukcji 8-stack. Im bardziej ograniczona jest globalna podaż HBM4, tym bardziej wolumen wysyłek AMD staje się ograniczony przez dostępność pamięci.
Oczywiście, na wczesnych etapach, gdy wydajność dla pamięci HBM4 o wysokiej specyfikacji jest niska, nie jest to poważny problem — niskie wydajności dla części najwyższej klasy naturalnie skutkują obfitością dostaw o niższej klasie.
Ale co się stanie, gdy krzywa uczenia się wydajności poprawi się? Gdy wydajności dla HBM4 o wysokiej specyfikacji wzrosną, dostawcy będą mieli większą motywację do alokacji wafli do chipów o wyższej marży przeznaczonych dla Nvidii. To sprawia, że coraz trudniej będzie AMD pozyskiwać duże ilości pamięci HBM4 o niskiej wydajności po niskich cenach. Ponadto, z Samsungiem radzącym sobie dobrze w przestrzeni HBM4, AMD nie będzie mogło zdobyć zapasów po "cenach wyprzedażowych", jak to miało miejsce podczas cyklu HBM3E.
Ostatecznie, AMD stoi przed z natury bardziej niekorzystną strukturą kosztów na poziomie chipów w porównaniu do Rubina Nvidii.
Najlepsze
Ranking
Ulubione
