Kör Minimax M2.1 (@MiniMax__AI) med OpenCode (@opencode) och mlx_lm.server. Fungerar ganska bra på en M3 Ultra. När KV-cachen är varm går prompthanteringen ganska snabbt. Och tokengenereringen går väldigt snabbt.