M5 Max je hračka za 3 500 dolarů jediné číslo, které pro lokální AI záleží: tokeny za sekundu co skutečně záleží na inferenci LLM (v pořadí): Šířka pásma paměti→ určuje tok/s VRAM/sjednocená paměť → určuje velikost modelu Výpočet → pro inferenci téměř nehraje roli 25 tokenů/sekundu na 70B zní působivě, dokud si neuvědomíš, že agentická AI potřebuje 100+, aby se necítila rozbitá M5 je skvělý notebook, ale není materiál na server