Per dare contesto a ciò a cui sta rispondendo, questo articolo di Reuters è di un'ora fa: 'Sette fonti hanno detto che OpenAI non è soddisfatta della velocità con cui l'hardware di Nvidia può fornire risposte agli utenti di ChatGPT per tipi specifici di problemi come lo sviluppo software e l'AI che comunica con altri software. Ha bisogno di nuovo hardware che in futuro fornirebbe circa il 10% delle esigenze di calcolo per l'inferenza di OpenAI, ha detto una delle fonti a Reuters. Il creatore di ChatGPT ha discusso di collaborare con startup tra cui Cerebras e Groq per fornire chip per un'inferenza più veloce, hanno detto due fonti. Ma Nvidia ha concluso un accordo di licenza da 20 miliardi di dollari con Groq che ha interrotto i colloqui di OpenAI, ha detto una delle fonti a Reuters'