Achiziționarea Groq de către Nvidia pentru 20 de miliarde de dolari este un eveniment important. Cipurile Groq sunt incredibil de rapide la inferență, uneori GPU-uri de 10x. Trucul este să pui greutățile modelului în SRAM în loc de HBM pentru a schimba capacitatea memoriei pe viteză. Suma sa $/token poate pierde în fața plăcilor video, dar pentru inferenții cu așteptare lungă la modele precum GPT-5.2 Pro, viteza contează. Dacă aș fi Sam Altman, l-aș cumpăra. 20 de miliarde de dolari e ieftin. Jensen a luat decizia corectă.
Wow, deci practic este un acqui-hire. Nvidia tocmai a preluat cofondatorii Groq, inclusiv pe Jonathan, co-creatorul TPU-urilor Google. Similar cu ofertele Meta <-> Scale AI (Alexander Wang) și Google <-> Windsurf.
150