Ho tracciato la capacità di memoria rispetto alla domanda e sto cercando di mettere alla prova il mio stesso modello. @zephyr_z9 Mi manca qualcosa? Il P/E forward di ~6 su SK Hynix sembra un affare assoluto. Memoria - $MU, Samsung, Sk Hynix, $SNDK - L'HBM non è utilizzabile senza un imballaggio avanzato 2.5D. Gli stack HBM devono essere posizionati accanto al GPU/ASIC su un interposer di silicio, e poi integrati in un unico pacchetto. Questo passaggio è ciò che fornisce CoWoS. Se non puoi imballare, non puoi spedire acceleratori basati su HBM, anche se esistono wafer DRAM. - La capacità di CoWoS scala più lentamente rispetto alla produzione di wafer DRAM. Espandere CoWoS richiede nuovi strumenti, spazio in sala bianca e input della catena di fornitura specializzati (grandi interposers, substrati avanzati, processi TSV). Questi hanno tempi di consegna più lunghi rispetto ai cambiamenti nella capacità delle fabbriche DRAM. - Gli acceleratori AI sono intensivi in imballaggio. Un singolo pacchetto di acceleratore AI può consumare molta capacità di CoWoS perché gli interposers sono grandi e i rendimenti sono più difficili. Questo rende le "unità effettive al mese" inferiori a quelle che le persone si aspettano da un pensiero basato su wafer. - La maggior parte degli acceleratori AI ad alto volume dipende da CoWoS di TSMC. Esistono alternative (Samsung I-Cube/X-Cube, Intel EMIB/Foveros), ma l'ecosistema e il volume oggi sono maggiormente concentrati attorno a CoWoS, il che crea un unico punto di strozzatura. - I colli di bottiglia nell'imballaggio si propagano all'offerta di HBM. I fornitori di HBM possono produrre wafer, ma se la capacità di imballaggio per i moduli finali o i pacchetti di acceleratori è limitata, l'allocazione di HBM viene razionata e sembra una carenza di offerta.