просто мягкое напоминание, что никто не должен использовать ollama > медленнее, чем llama.cpp на Windows > медленнее, чем mlx на Mac > бесполезная обертка > буквальные воры кода альтернативы? > lmstudio > llama.cpp > exllamav2/v3 > vllm > sglang как будто буквально всё лучше, чем ollama, лол