MLX-LM menjadi kerangka kerja inferensi kecil yang cukup kuat! Rilis terbaru menambahkan inferensi LLM tensor-paralel untuk digunakan dengan back-end JACCL latensi rendah baru di MLX (h/t @angeloskath). Juga diperbarui untuk mendukung Transformers V5!