トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
GLM-5は新たなトップクラスのオープンウェイトモデルです!GLM-5はオープンウェイトモデルの中で人工分析知能指数(AGI)をリードし、経済的に価値のある作業タスクに焦点を当てた当社のエージェントベンチマークGDPval-AAではGLM-4.7を大きく上回っています
GLM-5はGLM-4.5以来の@Zai_org初の新アーキテクチャであり、GLM-4.5、4.6、4.7モデルはそれぞれ355Bの総モデルと32Bのアクティブパラメータが専門家モデルの混合でした。GLM-5は合計744B/アクティブ40Bにスケールし、DeepSeek Sparse Attentionを統合しています。これにより、GLM-5はDeepSeek V3ファミリー(合計671B/37Bアクティブ)およびMoonshotのKimi K2ファミリー(合計1T、32Bアクティブ)のパラメータ数により近いものとなっています。しかし、GLM-5はBF16の精度でリリースされており、総サイズは約1.5TBで、これはそれぞれFP8およびINT4の精度でネイティブリリースされているDeepSeek V3や最近のKimi K2モデルよりも大きいです。
主なポイント:
GLM-5は知能指数で50点を獲得し、新たなオープンウェイトリーダーとなりました。これはGLM-4.7の42点から8ポイントの上昇で、エージェントパフォーマンスと知識/幻覚の改善によるものです。これは、Artificial Analysis Intelligence Index v4.0でオープンウェイトモデルが50以上のスコアを獲得した初めてであり、独自モデルとオープンウェイトモデルのギャップが大きく縮まったことを示しています。Kimi K2.5、MiniMax 2.1、DeepSeek V3.2など、他のフロンティアのオープンウェイトモデルよりも優れています。
GLM-5はオープンウェイトモデルの中で最も高い人工分析エージェント指数スコア(Artificial Analysis Agentic Index)スコア63を獲得し、全体で3位にランクインしています。これは、プレゼンテーション準備やデータ分析からビデオ編集に至るまで、知識作業の一般的なエージェント的パフォーマンスを示す主要な指標であるGDPval-AAの強いパフォーマンスによって推進されています。GLM-5のGDPval-AA ELOは1412で、Claude Opus 4.6やGPT-5.2(xhigh)に次ぐレベルです。GLM-5は、オープンウェイトモデルの実際の経済的価値のある作業課題におけるパフォーマンスを大幅に向上させています
† GLM-5は幻覚の減少によりAA-全知指数を大幅に改善しています。GLM-5はAA-Omniscience Indexで-1のスコアを獲得し、GLM-4.7(推論、-36)と比べて35ポイント改善しています。これはGLM-4.7と比較して幻覚率が56pp減少していることによるものです(推論)。GLM-5は、より頻繁に禁欲することでこれを実現し、テストされたモデルの中でも最も低い幻覚レベルを示します
† GLM-5は知能指数の実行に~1億1,000万の出力トークンを使用し、GLM-4.7の約1億7,000万出力トークンと比べて、ほとんどの評価でより高いスコアにもかかわらず大幅に減少しました。これによりGLM-5は知能対出力トークンチャートの最前線に近づきますが、Opus 4.6と比べるとトークン効率は劣ります
主なモデルの詳細:
† コンテキストウィンドウ:20万トークン、GLM-4.7に相当
マルチモーダリティ:テキスト入力と出力のみ - Kimi K2.5は画像入力をサポートする主要なオープンウェイトモデルとして依然として優れています
† サイズ:総パラメータ744B、アクティブパラメータ40B。自己展開の場合、GLM-5はBF16のネイティブ精度で重みを格納するために約1,490GBのメモリを必要とします
† ライセンス:MITライセンス
入手可能性:本分析を共有する時点で、GLM-5はZ AIのファーストパーティAPIおよび@novita_labs(100万トークンあたり$1/$3.2)、@gmi_cloud($1/$3.2)、@DeepInfra($0.8/$2.56)などのサードパーティAPIでFP8精度で利用可能です
† トレーニングトークン:Z AIは事前学習データ量を23Tから28.5Tに増加させたことも示しています

GLM-5は幻覚の減少によりAA全知指数の改善を示します。これはモデルが知らない問題に答えることを控えていることを意味します

完全な結果の内訳

GLM-5 HuggingFaceリポジトリ:
詳細は以下のサイトをご覧ください:
14.02K
トップ
ランキング
お気に入り
