NVIDIA a acquis un concurrent potentiel, NVIDIA a annoncé hier soir un accord de 20 milliards de dollars en espèces avec la startup de puces AI Groq. Bien sûr, les officiels ont également déclaré : il ne s'agit pas d'acquérir la société Groq, mais simplement d'obtenir une licence technologique et d'intégrer les produits de Groq dans les futurs produits. Groq, fondée en 2016 par un groupe d'anciens ingénieurs de Google, est le noyau central des TPU et se concentre sur la conception de puces d'accélérateur AI haute performance. Cette initiative de NVIDIA peut être considérée comme une manœuvre pour devancer Google, commençant à intensifier ses efforts dans l'inférence. Sur le plan technologique, 1) cela équivaut à un passage de NVIDIA d'une approche unique de GPU (processeur graphique) à un modèle de fusion à double voie "GPU + LPU", passant de "calcul parallèle général" à "inférence déterministe dédiée". 2) En particulier sur le chemin de stockage, de HBM à SRAM, HBM (mémoire à large bande passante), bien que de grande capacité, a une bande passante limitée. Le LPU de Groq repose presque entièrement sur la SRAM (mémoire statique à accès aléatoire) sur puce, avec une bande passante pouvant atteindre 80 To/s (environ 10 fois celle de HBM). Il y a des affirmations selon lesquelles, à l'avenir, plus le récit de Groq sera fort, plus le récit de stockage pourrait être faible. Cela nécessite une attention particulière sur l'évolution future des droits de stockage.