mlx-lm wordt een behoorlijk krachtig inferentiekader! De nieuwste release voegt tensor-parallel LLM-inferentie toe voor gebruik met de nieuwe low-latency JACCL-backend in MLX (h/t @angeloskath). Ook bijgewerkt om Transformers V5 te ondersteunen!