nikt nie powinien używać ollama, btw > wolniejszy niż llama.cpp na Windowsie > wolniejszy niż mlx na Macu > bezużyteczny wrapper alternatywy? > lmstudio > llama.cpp > exllamav2/v3 > vllm > sglang jak dosłownie cokolwiek jest lepsze niż ollama lmao