Ich habe ein paar Bedenken bezüglich der OpenAI API: Für einen Linux-Nutzer kann man ein solches System bereits ganz einfach selbst aufbauen, indem man eine 4xH100-Box kauft, sie zu Hause installiert, CUDA und vLLM lokal installiert und GLM, Kimi oder ein vergleichbares Open-Source-Modell ausführt. Bei typischen Verbraucher-Workloads sollte man mit höheren TPS zu einem Bruchteil der Kosten rechnen.