Só um lembrete gentil de que ninguém deve usar ollama > mais lento que llama.cpp no Windows > mais lento que o mlx no Mac > invólucro inútil > ladrões de código literais Alternativas? > lmstudio > llama.cpp > exllamav2/v3 > vllm > sglang Tipo, literalmente qualquer coisa é melhor que Ollama kkk