OpenCode (@opencode) ve mlx_lm.server ile Minimax M2.1 (@MiniMax__AI) çalıştırıyorum. M3 Ultra'da oldukça iyi çalışıyor. KV önbelleği ısındıktan sonra prompt işleme oldukça hızlı oluyor. Ve token üretimi çok hızlı.