Il padrino dell'AI afferma che i guadagni del pre-addestramento stanno raggiungendo i limiti dei dati, il che rafforza un punto che ho sostenuto per un po', ovvero che la gravità economica dell'AI si sta spostando dall'addestramento dei modelli all'esecuzione di essi su larga scala attraverso l'inferenza. È esattamente per questo che $NVDA si è mossa su Groq per assicurarsi che il futuro dell'inferenza in tempo reale e a bassa latenza continui a passare attraverso la piattaforma di Nvidia.