AI:ns gudfader säger att förträningsvinster når datagränser förstärker en poäng jag har gjort ett tag, nämligen att AI:ns ekonomiska tyngd skiftar från att träna modeller till att köra dem i stor skala genom inferens. Det är precis därför $NVDA gick vidare till Groq för att säkerställa att framtiden för realtids, låg latens inferens fortfarande går via Nvidias plattform