MASSIF L'année des LLMs Locaux commence officiellement avec GLM-4.7-Flash de Zhipu AI > 30B-A3B MoE > conçu pour les GPU grand public > exécutable depuis votre sous-sol > la plus forte sortie de classe 30B que nous ayons jamais vue C'est LE MEILLEUR <=70B que j'ai jamais exécuté localement, au fait Architecture > Attention MLA de style DeepSeek > routage MoE mince > 30B de paramètres au total, ~4B actifs > 64 experts au total, 5 actifs (incl. partagés) Profondeur & intention > à peu près de la classe GLM-4.5-Air > mais réglé plus durement pour la localité Benchmarks SWE-bench Vérifié > GLM-4.7-Flash : 59.2 > Qwen3-30B-A3B : 22.0 > GPT-OSS-20B : 34.0 > Nemotron-3-Nano-30B-A3B : 38.8 > pas le même univers...