oLLM: eine leichte Python-Bibliothek für LLM-Inferenz, die auf Transformers aufbaut 🔥 Führen Sie qwen3-next-80B, GPT-OSS, Llama3 auf Consumer-Hardware aus. Tolle Arbeit von Anuar!