A Nvidia adquiriu potenciais concorrentes, com a Nvidia anunciando ontem à noite um acordo de 20 bilhões de dólares com a startup de chips de IA Groq. Claro, o funcionário também disse: não é para adquirir a empresa Groq, mas para obter licenciamento de tecnologia e integrar os produtos da Groq em produtos futuros. Fundada em 2016 por um grupo de ex-engenheiros do Google, a Groq é a equipe central da TPU, focada no design de chips aceleradores de IA de alto desempenho. A atitude da Nvidia é copiar o retaguardo do Google e começar a acelerar seus esforços de raciocínio. Em termos de rota técnica, 1) é equivalente à NVIDIA migrar de uma rota de GPU única (unidade de processamento gráfico) para um modo de fusão de via dupla de "GPU + LPU", e "computação paralela geral" para "raciocínio determinístico dedicado". 2) Especialmente no caminho de armazenamento, de HBM para SRAM, HBM (High Bandwidth Video Memory), embora a capacidade seja grande, a largura de banda é limitada. As LPUs da Groq dependem quase inteiramente de SRAM (Static Random Memory) no chip, com largura de banda de até 80 TB/s (cerca de 10 vezes maior que a do HBM). Vendo que há um ditado: quanto mais forte for a narrativa de Groq no futuro, mais fraca provavelmente será a narrativa do armazenamento. Essa tendência de direitos autorais de armazenamento precisa ser observada.