po prostu delikatne przypomnienie, że nikt nie powinien używać ollama > wolniejszy niż llama.cpp na Windows > wolniejszy niż mlx na Mac > bezużyteczny wrapper > dosłowni złodzieje kodu alternatywy? > lmstudio > llama.cpp > exllamav2/v3 > vllm > sglang jak dosłownie cokolwiek jest lepsze niż ollama lmao