nur eine sanfte Erinnerung, dass niemand ollama verwenden sollte > langsamer als llama.cpp auf Windows > langsamer als mlx auf Mac > nutzloser Wrapper > buchstäblich Code-Diebe Alternativen? > lmstudio > llama.cpp > exllamav2/v3 > vllm > sglang wie buchstäblich alles besser ist als ollama lmao