Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
¡GLM-5 es el nuevo modelo líder de pesas abiertas! GLM-5 lidera el Índice de Inteligencia de Análisis Artificial entre modelos de pesos abiertos y obtiene grandes avances respecto a GLM-4,7 en GDPval-AA, nuestro referente agente centrado en tareas laborales económicamente valiosas
El GLM-5 es la primera arquitectura nueva de @Zai_org desde el GLM-4.5: cada uno de los modelos GLM-4.5, 4.6 y 4.7 era una mezcla de parámetros 355B en total / 32B de parámetros activos de los modelos experts. GLM-5 escala a 744B en total / 40B activo, e integra DeepSeek Sparse Attention. Esto sitúa a GLM-5 más en línea con el recuento de parámetros de la familia DeepSeek V3 (671B totales / 37B activos) y de la familia Kimi K2 de Moonshot (1T total, 32B activos). Sin embargo, el GLM-5 se lanza con precisión BF16, con un tamaño total de ~1,5TB, más grande que el DeepSeek V3 y los modelos más recientes Kimi K2, que se han lanzado de forma nativa en precisión FP8 e INT4 respectivamente.
Puntos clave:
➤ GLM-5 obtiene una puntuación de 50 en el Índice de Inteligencia y es el nuevo líder en pesos abiertos, frente a la puntuación de 42 de GLM-4.7, un salto de 8 puntos impulsado por mejoras en el rendimiento agente y conocimiento/alucinación. Es la primera vez que un modelo de pesos abiertos alcanza una puntuación de 50 o superior en el Índice de Inteligencia de Análisis Artificial v4.0, lo que representa un cierre significativo de la brecha entre modelos propietarios y de pesos abiertos. Se sitúa por encima de otros modelos de peso abierto de vanguardia como Kimi K2.5, MiniMax 2.1 y DeepSeek V3.2.
➤ GLM-5 alcanza la puntuación más alta en el Índice Agente de Análisis Artificial entre los modelos de peso abierto con una puntuación de 63, situándose en tercer lugar en general. Esto se impulsa por un fuerte rendimiento en GDPval-AA, nuestra principal métrica para el rendimiento general de agentes en tareas de trabajo de conocimiento, desde la preparación de presentaciones y análisis de datos hasta la edición de vídeo. GLM-5 tiene un ELO GDPval-AA de 1412, solo por debajo de Claude Opus 4.6 y GPT-5.2 (xhigh). GLM-5 representa un aumento significativo en el rendimiento de los modelos de peso abierto en tareas laborales reales de valor económico
➤ GLM-5 muestra una gran mejora respecto al Índice AA-Omnisciencia, impulsada por una reducción de las alucinaciones. GLM-5 obtiene una puntuación de -1 en el Índice AA-Omnisciencia, una mejora de 35 puntos respecto a GLM-4,7 (Razonamiento, -36). Esto se debe a una reducción del 56 p.p en la tasa de alucinaciones en comparación con el GLM-4,7 (Razonamiento). GLM-5 logra esto absteniéndose con mayor frecuencia y presenta el nivel más bajo de alucinación entre los modelos probados
➤ GLM-5 utilizó ~110M tokens de salida para ejecutar el Índice de Inteligencia, en comparación con los ~170M tokens de salida de GLM-4.7, una disminución significativa a pesar de las puntuaciones más altas en la mayoría de las evaluaciones. Esto acerca a GLM-5 a la frontera del gráfico Inteligencia vs. Output Tokens, pero es menos eficiente en tokens en comparación con Opus 4.6
Detalles clave del modelo:
➤ Ventana de contexto: 200K tokens, equivalente a GLM-4.7
Multimodalidad: solo entrada y salida de texto - Kimi K2.5 sigue siendo el modelo de pesos abiertos líder en soportar entrada de imágenes
➤ Tamaño: 744B parámetros totales, 40B parámetros activos. Para el autodespliegue, el GLM-5 requerirá ~1.490GB de memoria para almacenar los pesos con precisión nativa BF16
➤ Licencias: Licencia MIT
Disponibilidad: En el momento de compartir este análisis, GLM-5 está disponible en la API de primera mano de Z AI y en varias APIs de terceros como @novita_labs ($1/$3,2 por 1M de tokens de entrada/salida), @gmi_cloud ($1/$3,2) y @DeepInfra ($0,8/$2,56), en precisión FP8
➤ Tokens de entrenamiento: Z AI también indicó que ha aumentado el volumen de datos previos al entrenamiento de 23T a 28,5T tokens

GLM-5 muestra una mejora en el Índice de Omnisciencia, impulsada por una menor alucinación. Esto significa que el modelo se abstiene más de responder preguntas que no conoce

Desglose de los resultados completos

Repositorio de HuggingFace GLM-5:
Para más información visita:
12.19K
Populares
Ranking
Favoritas
