URIAȘ Anul LLM-urilor locale începe oficial cu GLM-4.7-Flash de la Zhipu AI > 30B-A3B MoE > construit pentru GPU-uri de consum > poate fi folosit din subsolul tău > cea mai puternică lansare clasa 30B pe care am văzut-o vreodată Acesta este CEL MAI BUN <=70B Am alergat vreodată local, apropo Arhitectură > atenție MLA în stil DeepSeek > rutare MoE subțire > 30B parametri în total, ~4B activi > 64 de experți în total, 5 activi (inclusiv partajați) Adâncime și intenție > aproximativ clasa GLM-4.5-Air > dar a fost reglat mai intens pentru localitate Repere SWE-bench Verificat > GLM-4.7-Flash: 59.2 > Qwen3-30B-A3B: 22.0 > GPT-OSS-20B: 34.0 > Nemotron-3-Nano-30B-A3B: 38,8 > nu același univers...