To jest kierunkowo poprawne. Wielu lat temu jasny był kompromis między HBM a SRAM w projektowaniu architektury. Ci, którzy wybrali HBM, stoją w kolejce za Nvidią i Google. Powodzenia z tym. Ogólnie rzecz biorąc, wzorce dekodowania LLM sprzyjają SRAM. Ale w przeciwieństwie do Gavina, uważam, że to tworzy przestrzeń dla jeszcze bardziej heterogenicznego krzemu, aby wspierać modele AI w przyszłości. Nie mniej. Podejrzewam, że dwa istotne osie to dokładność vs prędkość, a jeśli możesz zaprojektować skoncentrowane rozwiązanie dla konkretnego przypadku użycia AI, to będzie rynek.