Nadchodzi wielka okazja dla Samsunga... Wchodząc na całego w zaawansowane pakowanie Co roku w grudniu, wyżsi menedżerowie z gigantów półprzewodników AI, takich jak NVIDIA i Broadcom, gromadzą się w siedzibie TSMC w Hsinchu Science Park na Tajwanie. Ich celem jest zabezpieczenie przynajmniej jednego dodatkowego miejsca na liniach produkcyjnych TSMC "Advanced Packaging", które integrują GPU i pamięć o wysokiej przepustowości (HBM), aby stworzyć akceleratory AI. Przydział tych linii, znany jako "CoWoS" (Chip-on-Wafer-on-Substrate), decyduje o ilości akceleratorów AI, które mogą wyprodukować w następnym roku. W rzeczywistości, Google podobno obniżył cel produkcji swojego własnego akceleratora AI, Tensor Processing Unit (TPU), o 1 milion jednostek z pierwotnego celu 4 milionów, ponieważ przegrał z NVIDIA w walce o pojemność CoWoS. "Zaawansowane pakowanie", które montuje wysokowydajne półprzewodniki, takie jak GPU i HBM, na specjalnym materiale zwanym "interposerem krzemowym", aby działały bezproblemowo jako jeden chip, stało się decydującym polem bitwy o dominację na rynku półprzewodników AI w tym roku. W miarę jak ultra-drobne procesy — zawężające szerokości obwodów do zakresu 1 nanometra (nm), aby zmieścić wiele funkcji w małym chipie — osiągają swoje techniczne limity, firmy półprzewodnikowe zwracają się ku zaawansowanemu pakowaniu, aby połączyć wiele chipów i działać jako jedna jednostka. W związku z tym, przewiduje się, że związany z tym rynek wzrośnie z 43 miliardów dolarów (około 62 bilionów KRW) w zeszłym roku do 64,3 miliardów dolarów (około 93 bilionów KRW) do 2028 roku. Obecnie rynek zaawansowanego pakowania jest zdominowany przez TSMC. Sytuacja osiągnęła punkt, w którym firmy nie mogą produkować akceleratorów AI na czas, nawet jeśli zabezpieczyły GPU i HBM, po prostu dlatego, że nie przydzielono im wystarczającej ilości linii CoWoS TSMC. W odpowiedzi na powtarzające się żądania ze strony NVIDIA, AMD, Broadcom i innych, TSMC postanowił zainwestować 7,5 miliarda dolarów (około 10,85 bilionów KRW) w tym roku — to jego największa kwota w historii — aby znacznie zwiększyć swoją zdolność do zaawansowanego pakowania. Samsung Electronics również postrzega zaawansowane pakowanie jako następne kluczowe pole bitwy po HBM i wzmacnia swoją działalność w tej dziedzinie. Podobno oferuje rozwiązanie "turnkey" — oferując zaawansowane pakowanie w zestawie z DRAM i usługami foundry — firmom takim jak Google, AMD i Amazon, które nie były w stanie zabezpieczyć wystarczającej ilości linii CoWoS z powodu dominacji NVIDIA. Aby wyprodukować akceleratory AI — często nazywane "siekierami" gorączki złota w erze AI — chipy muszą przejść przez dwa etapy zaawansowanego pakowania (proces, który sprawia, że wiele chipów działa jak jeden). Pierwszym jest wytwarzanie HBM, które polega na układaniu do 16 DRAM. Gdy ten proces, który jest znacznie trudniejszy niż standardowa produkcja DRAM, zostanie zakończony, czeka jeszcze większe wyzwanie: "2.5D Packaging", które łączy HBM i GPU na specjalnym podłożu zwanym interposerem krzemowym, aby działały jako jeden chip. Bez względu na to, jak dobre są GPU i HBM, jeśli zaawansowane pakowanie zawiedzie, akcelerator AI nie będzie działał prawidłowo. Jest to proces o wysokim stopniu trudności, przy czym wydajność lidera branży TSMC wynosi tylko 50–60%. W miarę jak TSMC nie nadąża za zalewem zamówień od NVIDIA i AMD, pakowanie 2.5D stało się największym wąskim gardłem hamującym rozwój rynku AI. ◇ Alternatywy dla ograniczeń ultra-drobnych procesów Pakowanie jest ogólnie podzielone na tradycyjne pakowanie i zaawansowane pakowanie. Tradycyjne pakowanie odnosi się do procesu umieszczania pojedynczego chipa na płycie głównej i łączenia go elektrycznie. Jest to część procesu "back-end", który wcześniej był oceniany jako technologia "mniej krytyczna" w ekosystemie półprzewodników. Jednak sytuacja zmieniła się, gdy popyt na wysokowydajne chipy eksplodował w erze AI. Do wczesnych lat 2020, firmy półprzewodnikowe postawiły "wszystko na jedną kartę" na "ultra-drobne procesy", zawężając szerokości obwodów do poniżej 2 nm, aby zmieścić więcej funkcji w mniejszych chipach. Ale ta konkurencja przyniosła odwrotny skutek. Rentowność spadła z powodu potrzeby zakupu sprzętu litograficznego Extreme Ultraviolet (EUV) kosztującego do 500 miliardów KRW za jednostkę. Wyzwania techniczne były również ogromne; w miarę jak szerokości obwodów się zawężały, wzrastały zakłócenia, a prąd upływowy rósł, co utrudniało kontrolowanie generacji ciepła. Znalezionym rozwiązaniem było pakowanie. Zamiast upychać złożone funkcje w jednym chipie za pomocą ultra-drobnych procesów, połączenie kilku umiarkowanie zaawansowanych chipów mogło osiągnąć tę samą wydajność. Branża dodała modyfikator "Zaawansowane" do tej technologii, ponieważ jej trudność techniczna znacznie przewyższa trudność tradycyjnego pakowania. ◇ Poważny niedobór pojemności CoWoS Liderem jest TSMC. Jego główną bronią jest technologia zaawansowanego pakowania 2.5D zwana "CoWoS-S". Umieszcza ona interposer krzemowy — specjalną warstwę materiału działającą jako most — na podłożu i układa wiele chipów poziomo. Interposer krzemowy składa się z pionowych przejść zwanych Through-Silicon Vias (TSV), które łączą dolne podłoże z górnymi chipami, oraz warstwy redystrybucji (RDL), która łączy sygnały między chipami. Nazywa się to pakowaniem 2.5D, ponieważ interposer i chipy są układane pionowo (3D) na podłożu, podczas gdy chipy są układane poziomo (2D). W miarę jak popyt na wysokowydajne chipy wzrastał w erze AI, NVIDIA i AMD dostrzegły moc CoWoS. W ten sposób powstały akceleratory AI, takie jak B200 i H100, łączące HBM i GPU. Według Samsung Securities, pojemność produkcyjna CoWoS TSMC (przeliczona na wafle) wzrosła z 35 000 arkuszy miesięcznie w 2024 roku do około 70 000 arkuszy w zeszłym roku, a w tym roku ma wzrosnąć do około 110 000 arkuszy. Jednak oceny sugerują, że to nadal niewystarczające. Biorąc pod uwagę, że przydział CoWoS dla NVIDIA przez TSMC wynosi około 55%, obliczenia sugerują, że w tym roku można wyprodukować tylko 8,91 miliona akceleratorów AI "Blackwell". Ta ilość może wspierać centra danych o maksymalnej pojemności 18 gigawatów (GW), co stanowi tylko 50% globalnej pojemności inwestycyjnej centrów danych w tym roku. Samsung Securities przeanalizował: "Istnieje możliwość, że TSMC nie będzie w stanie zaspokoić nawet popytu NVIDIA w tym roku." ...