Menjalankan Minimax M2.1 (@MiniMax__AI) dengan OpenCode (@opencode) dan mlx_lm.server. Bekerja cukup baik pada M3 Ultra. Setelah cache KV hangat, pemrosesan prompt cukup cepat. Dan pembuatan token sangat cepat.