Um den Kontext zu geben, auf den er reagiert, stammt diese Reuters-Geschichte von vor einer Stunde: "Sieben Quellen sagten, dass OpenAI mit der Geschwindigkeit, mit der die Hardware von Nvidia Antworten für ChatGPT-Nutzer auf spezifische Probleme wie Softwareentwicklung und die Kommunikation von KI mit anderer Software ausgeben kann, unzufrieden ist. Es benötigt neue Hardware, die letztendlich etwa 10 % des zukünftigen Bedarfs von OpenAI an Inferenz-Computing decken würde, sagte eine der Quellen gegenüber Reuters. Der ChatGPT-Hersteller hat darüber diskutiert, mit Startups wie Cerebras und Groq zusammenzuarbeiten, um Chips für schnellere Inferenz bereitzustellen, sagten zwei Quellen. Aber Nvidia schloss einen Lizenzvertrag über 20 Milliarden Dollar mit Groq ab, der die Gespräche von OpenAI beendete, sagte eine der Quellen gegenüber Reuters."