Por cierto, nadie debería usar Ollama > más lento que llama.cpp en Windows > más lento que mlx en Mac > la espuma de la capa inútil ¿Alternativas? > lmstudio > llama.cpp > exllamav2/v3 > vllm > sglang Como si literalmente cualquier cosa fuera mejor que Ollama ja