oLLM : une bibliothèque Python légère pour l'inférence LLM construite sur des transformers 🔥 Exécutez qwen3-next-80B, GPT-OSS, Llama3, sur du matériel grand public. Un travail incroyable de la part d'Anuar !