MASIVO El año de los LLMs locales comienza oficialmente con GLM-4.7-Flash de Zhipu AI > 30B-A3B MoE > construido para GPUs de consumo > ejecutable desde tu sótano > la versión más potente de 30B que hemos visto Este es EL MEJOR <=70B que he ejecutado localmente, por cierto Arquitectura > Atención MLA estilo DeepSeek > enrutamiento MoE delgado > 30B de parámetros totales, ~4B activos > 64 expertos en total, 5 activos (incl. compartidos) Profundidad e intención > aproximadamente de la clase GLM-4.5-Air > pero ajustado más para la localidad Puntos de referencia SWE-bench Verificado > GLM-4.7-Flash: 59.2 > Qwen3-30B-A3B: 22.0 > GPT-OSS-20B: 34.0 > Nemotron-3-Nano-30B-A3B: 38.8 > no es el mismo universo...