Vil denne 14B-modellen passe i min VRAM? Hvorfor kjører dette på 3 tokens per sekund? Bygde en CLI for å slutte å stille disse spørsmålene. LLM Checker Skanner GPU/CPU og scorer 6 900+ @ollama modeller. Den forteller deg hva som fungerer best på DIN maskin. npm install -g ollama-checker