Doar o reamintire blândă că nimeni nu ar trebui să folosească Ollama > mai lent decât llama.cpp pe Windows > mai lent decât mlx pe Mac > învelitoare inutilă > hoți de cod la propriu Alternative? > lmstudio > llama.cpp > exllamav2/v3 > vllm > sglang Ca și cum orice ar fi mai bun decât Ollama, haha.