Le parrain de l'IA affirmant que les gains de pré-formation atteignent des limites de données renforce un point que j'ai soulevé depuis un certain temps, à savoir que la gravité économique de l'IA se déplace de la formation des modèles à leur exécution à grande échelle via l'inférence. C'est exactement pourquoi $NVDA a agi sur Groq pour s'assurer que l'avenir de l'inférence en temps réel et à faible latence passe toujours par la plateforme de Nvidia.