M5 Max är en leksak värd 3 500 dollar det enda talet som spelar roll för lokal AI: tokens/sec vad som faktiskt spelar roll för LLM-inferens (i ordning): Minnesbandbredd → bestämmer TOK/s VRAM/enhetligt minne → bestämmer modellens storlek Beräkning → knappt spelar någon roll för slutsatser 25 tokens/sekund på 70B låter imponerande tills man inser att agentisk AI behöver 100+ för att inte kännas trasig M5 är en utmärkt laptop, men inte servermaterial