oLLM: una libreria Python leggera per l'inferenza LLM costruita sopra i transformers 🔥 Esegui qwen3-next-80B, GPT-OSS, Llama3, su hardware consumer. Ottimo lavoro di Anuar!