Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
GLM-5 est le nouveau modèle leader à poids ouverts ! GLM-5 domine l'Indice d'Analyse de l'Intelligence Artificielle parmi les modèles à poids ouverts et réalise de grands progrès par rapport à GLM-4.7 dans le GDPval-AA, notre référence agentique axée sur les tâches de travail économiquement précieuses.
GLM-5 est la première nouvelle architecture de @Zai_org depuis GLM-4.5 - chacun des modèles GLM-4.5, 4.6 et 4.7 était un modèle de mélange d'experts de 355B au total / 32B de paramètres actifs. GLM-5 s'étend à 744B au total / 40B actifs, et intègre l'Attention Sparse DeepSeek. Cela place GLM-5 plus en ligne avec le nombre de paramètres de la famille DeepSeek V3 (671B au total / 37B actifs) et de la famille Kimi K2 de Moonshot (1T au total, 32B actifs). Cependant, GLM-5 est publié en précision BF16, avec une taille totale d'environ 1,5 To - plus grand que DeepSeek V3 et les récents modèles Kimi K2 qui ont été publiés nativement en précision FP8 et INT4 respectivement.
Points clés à retenir :
➤ GLM-5 obtient un score de 50 sur l'Indice d'Intelligence et est le nouveau leader à poids ouverts, contre un score de 42 pour GLM-4.7 - une augmentation de 8 points due à des améliorations dans la performance agentique et la connaissance/hallucination. C'est la première fois qu'un modèle à poids ouverts atteint un score de 50 ou plus sur l'Indice d'Analyse de l'Intelligence Artificielle v4.0, représentant une réduction significative de l'écart entre les modèles propriétaires et à poids ouverts. Il se classe au-dessus d'autres modèles à poids ouverts de pointe tels que Kimi K2.5, MiniMax 2.1 et DeepSeek V3.2.
➤ GLM-5 atteint le score le plus élevé de l'Indice Agentique d'Analyse de l'Intelligence Artificielle parmi les modèles à poids ouverts avec un score de 63, se classant troisième au total. Cela est dû à une forte performance dans le GDPval-AA, notre métrique principale pour la performance agentique générale sur les tâches de travail de connaissance, allant de la préparation de présentations et d'analyses de données à l'édition vidéo. GLM-5 a un ELO GDPval-AA de 1412, juste en dessous de Claude Opus 4.6 et GPT-5.2 (xhigh). GLM-5 représente une amélioration significative de la performance des modèles à poids ouverts sur des tâches de travail économiquement précieuses dans le monde réel.
➤ GLM-5 montre une grande amélioration sur l'Indice AA-Omniscience, grâce à une réduction de l'hallucination. GLM-5 obtient un score de -1 sur l'Indice AA-Omniscience - une amélioration de 35 points par rapport à GLM-4.7 (Raisonnement, -36). Cela est dû à une réduction de 56 p.p du taux d'hallucination par rapport à GLM-4.7 (Raisonnement). GLM-5 atteint cela en s'abstenant plus fréquemment et a le niveau d'hallucination le plus bas parmi les modèles testés.
➤ GLM-5 a utilisé environ 110M de tokens de sortie pour exécuter l'Indice d'Intelligence, contre environ 170M de tokens de sortie pour GLM-4.7, une diminution significative malgré des scores plus élevés dans la plupart des évaluations. Cela rapproche GLM-5 de la frontière du graphique Intelligence vs. Tokens de Sortie, mais est moins efficace en termes de tokens par rapport à Opus 4.6.
Détails clés du modèle :
➤ Fenêtre de contexte : 200K tokens, équivalent à GLM-4.7.
Multimodalité : Entrée et sortie texte uniquement - Kimi K2.5 reste le modèle à poids ouverts leader pour le support d'entrée d'image.
➤ Taille : 744B de paramètres au total, 40B de paramètres actifs. Pour le déploiement autonome, GLM-5 nécessitera environ 1 490 Go de mémoire pour stocker les poids en précision BF16 native.
➤ Licence : Licence MIT.
Disponibilité : Au moment de partager cette analyse, GLM-5 est disponible sur l'API de première partie de Z AI et plusieurs API tierces telles que @novita_labs (1 $ / 3,2 $ par 1M de tokens d'entrée/sortie), @gmi_cloud (1 $ / 3,2 $) et @DeepInfra (0,8 $ / 2,56 $), en précision FP8.
➤ Tokens d'entraînement : Z AI a également indiqué qu'il avait augmenté le volume de données de pré-entraînement de 23T à 28,5T de tokens.

GLM-5 montre une amélioration de l'Indice AA-Omniscience, grâce à une hallucination réduite. Cela signifie que le modèle s'abstient davantage de répondre à des questions qu'il ne connaît pas

Détail des résultats complets

Dépôt GLM-5 HuggingFace :
Pour plus d'informations, visitez :
14,06K
Meilleurs
Classement
Favoris
