GLM-5の紹介:バイブコーディングからエージェンティックエンジニアリングへ GLM-5は複雑なシステム工学や長期的なエージェントタスク向けに設計されています。GLM-4.5と比べて、355Bパラメータ(32Bアクティブ)から744B(40Bアクティブ)までスケールし、事前学習データは23Tから28.5Tトークンに増加します。 今すぐ試してみてください: 重量: テックブログ: OpenRouter(旧Pony Alpha): Coding Plan Maxユーザーからの展開:
当社の社内評価スイートCC-Bench-V2では、GLM-5はフロントエンド、バックエンド、長期的なタスクでGLM-4.7を大幅に上回り、Claude Opus 4.5との差を縮めています。
GLMコーディングプラン加入者の方へ:計算能力が限られているため、コーディングプランユーザーにGLM-5を段階的に展開しています。 - 最大プランユーザー:モデル名を「GLM-5」に更新することで、GLM-5を有効化できます(例:Claudeコードの~/.claude/settings.json)。 - その他のプラン階層:展開拡大に伴いサポートが段階的に追加されます。 - クオータ注:GLM-5へのリクエストはGLM-4.7よりも多くのプランクオータを消費します。
ModelScopeでも重さは利用可能です:
55