Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
¡GLM-5 es el nuevo modelo líder de pesos abiertos! GLM-5 lidera el Índice de Inteligencia de Análisis Artificial entre los modelos de pesos abiertos y logra grandes avances sobre GLM-4.7 en GDPval-AA, nuestro benchmark agentivo centrado en tareas laborales económicamente valiosas.
GLM-5 es la primera nueva arquitectura de @Zai_org desde GLM-4.5; cada uno de los modelos GLM-4.5, 4.6 y 4.7 tenía un total de 355B / 32B de mezcla activa de parámetros de expertos. GLM-5 escala a 744B en total / 40B activos, e integra DeepSeek Sparse Attention. Esto coloca a GLM-5 más en línea con el conteo de parámetros de la familia DeepSeek V3 (671B en total / 37B activos) y la familia Kimi K2 de Moonshot (1T en total, 32B activos). Sin embargo, GLM-5 se lanza en precisión BF16, con un tamaño total de ~1.5TB, más grande que DeepSeek V3 y los recientes modelos Kimi K2 que se han lanzado de forma nativa en precisión FP8 e INT4 respectivamente.
Puntos clave:
➤ GLM-5 obtiene 50 en el Índice de Inteligencia y es el nuevo líder de pesos abiertos, subiendo desde el puntaje de 42 de GLM-4.7, un salto de 8 puntos impulsado por mejoras en el rendimiento agentivo y el conocimiento/alucinación. Esta es la primera vez que un modelo de pesos abiertos ha alcanzado un puntaje de 50 o más en el Índice de Inteligencia de Análisis Artificial v4.0, representando un cierre significativo de la brecha entre modelos de pesos propietarios y abiertos. Se coloca por encima de otros modelos de pesos abiertos de frontera como Kimi K2.5, MiniMax 2.1 y DeepSeek V3.2.
➤ GLM-5 logra la puntuación más alta en el Índice de Agente de Análisis Artificial entre los modelos de pesos abiertos con un puntaje de 63, ocupando el tercer lugar en general. Esto se debe a un fuerte rendimiento en GDPval-AA, nuestra métrica principal para el rendimiento agentivo general en tareas de trabajo de conocimiento, desde la preparación de presentaciones y análisis de datos hasta la edición de video. GLM-5 tiene un ELO de GDPval-AA de 1412, solo por debajo de Claude Opus 4.6 y GPT-5.2 (xhigh). GLM-5 representa un aumento significativo en el rendimiento de los modelos de pesos abiertos en tareas laborales económicamente valiosas en el mundo real.
➤ GLM-5 muestra una gran mejora en el Índice de AA-Omnisciencia, impulsada por la reducción de alucinaciones. GLM-5 obtiene -1 en el Índice de AA-Omnisciencia, una mejora de 35 puntos en comparación con GLM-4.7 (Razonamiento, -36). Esto se debe a una reducción de 56 p.p en la tasa de alucinaciones en comparación con GLM-4.7 (Razonamiento). GLM-5 logra esto absteniéndose más frecuentemente y tiene el nivel más bajo de alucinaciones entre los modelos probados.
➤ GLM-5 utilizó ~110M de tokens de salida para ejecutar el Índice de Inteligencia, en comparación con los ~170M de tokens de salida de GLM-4.7, una disminución significativa a pesar de los puntajes más altos en la mayoría de las evaluaciones. Esto acerca a GLM-5 a la frontera del gráfico de Inteligencia vs. Tokens de Salida, pero es menos eficiente en tokens en comparación con Opus 4.6.
Detalles clave del modelo:
➤ Ventana de contexto: 200K tokens, equivalente a GLM-4.7.
Multimodalidad: Solo entrada y salida de texto; Kimi K2.5 sigue siendo el modelo de pesos abiertos líder que admite entrada de imagen.
➤ Tamaño: 744B de parámetros totales, 40B de parámetros activos. Para la autoimplementación, GLM-5 requerirá ~1,490GB de memoria para almacenar los pesos en precisión BF16 nativa.
➤ Licencia: Licencia MIT.
Disponibilidad: En el momento de compartir este análisis, GLM-5 está disponible en la API de primera parte de Z AI y varias APIs de terceros como @novita_labs ($1/$3.2 por 1M de tokens de entrada/salida), @gmi_cloud ($1/$3.2) y @DeepInfra ($0.8/$2.56), en precisión FP8.
➤ Tokens de Entrenamiento: Z AI también indicó que ha aumentado el volumen de datos de preentrenamiento de 23T a 28.5T tokens.

GLM-5 demuestra una mejora en el Índice AA-Omniscience, impulsada por una menor alucinación. Esto significa que el modelo se está absteniendo más de responder preguntas que no conoce

Desglose de los resultados completos

Repositorio GLM-5 de HuggingFace:
Para más información visita:
14,17K
Parte superior
Clasificación
Favoritos
