Aliás, ninguém deveria usar Ollama. > mais lento que llama.cpp no Windows > mais lento que o mlx no Mac > invólucro inútil Alternativas? > lmstudio > llama.cpp > exllamav2/v3 > vllm > sglang Tipo, literalmente qualquer coisa é melhor que Ollama kkk