Chạy Minimax M2.1 (@MiniMax__AI) với OpenCode (@opencode) và mlx_lm.server. Hoạt động khá tốt trên M3 Ultra. Khi bộ nhớ đệm KV đã ấm, quá trình xử lý prompt diễn ra khá nhanh. Và việc tạo token thì rất nhanh.