To je směrově správné. Kompromis HBM vs SRAM v návrhu architektury byl zřejmý už před mnoha lety. Ti, kteří si vybrali HBM, jsou ve frontě za Nvidia a Google. Hodně štěstí s tím. Obecněji řečeno, vzory dekódování LLM preferují SRAM. Ale na rozdíl od Gavina si myslím, že to vytváří cestu pro ještě více heterogenní křemík pro podporu AI modelů v budoucnu. Ne míň. Myslím, že dvě osy, na kterých záleží, jsou přesnost versus rychlost, a pokud dokážete navrhnout zaměřené řešení pro konkrétní případ použití AI, trh se objeví.