Kjører Minimax M2.1 (@MiniMax__AI) med OpenCode (@opencode) og mlx_lm.server. Fungerer ganske bra på en M3 Ultra. Når KV-cachen er varm, går prompt-behandlingen ganske raskt. Og tokengenerering går veldig raskt.