Bara en mild påminnelse om att ingen borde använda ollama > långsammare än llama.cpp på Windows > långsammare än MLX på Mac > sladd, värdelös förpackning > bokstavliga kodtjuvar Alternativ? > LMSTUDIO > llama.cpp > exllamav2/v3 > vllm > sglang Som bokstavligen vad som helst är bättre än Ollama haha