Narysowałem wykres pojemności pamięci w porównaniu do popytu i próbuję złamać swój własny model. @zephyr_z9 Czy coś mi umknęło? Forward P/E na poziomie ~6 dla SK Hynix wygląda jak absolutna okazja. Pamięć - $MU, Samsung, Sk Hynix, $SNDK - HBM nie jest użyteczne bez zaawansowanego pakowania 2.5D. Stosy HBM muszą być umieszczone obok GPU/ASIC na interposerze krzemowym, a następnie zintegrowane w jedną paczkę. Ten krok zapewnia CoWoS. Jeśli nie możesz zapakować, nie możesz wysłać akceleratorów opartych na HBM, nawet jeśli wafry DRAM istnieją. - Pojemność CoWoS rośnie wolniej niż produkcja wafrów DRAM. Rozszerzenie CoWoS wymaga nowych narzędzi, przestrzeni w czystych pomieszczeniach i wyspecjalizowanych dostaw materiałów (duże interposery, zaawansowane podłoża, procesy TSV). Te mają dłuższe czasy realizacji niż zmiany pojemności fabryk DRAM. - Akceleratory AI są intensywne pod względem pakowania. Jedna paczka akceleratora AI może zużywać dużo pojemności CoWoS, ponieważ interposery są duże, a wydajność jest trudniejsza. To sprawia, że efektywna liczba „jednostek na miesiąc” jest niższa niż ludzie oczekują, myśląc o wafrach. - Większość akceleratorów AI o dużej objętości zależy od CoWoS TSMC. Istnieją alternatywy (Samsung I‑Cube/X‑Cube, Intel EMIB/Foveros), ale ekosystem i objętość dzisiaj są najbardziej skoncentrowane wokół CoWoS, co tworzy jeden punkt wąskiego gardła. - Wąskie gardła w pakowaniu wpływają na podaż HBM. Dostawcy HBM mogą produkować wafry, ale jeśli pojemność pakowania dla finalnych modułów lub paczek akceleratorów jest ograniczona, alokacja HBM jest racjonowana i wygląda jak niedobór podaży.