Introduksjon av GLM-5: Fra Vibe-koding til agentisk ingeniørkunst GLM-5 er bygget for komplekse systemteknikker og agentiske oppgaver med lang horisont. Sammenlignet med GLM-4.5 skalerer den fra 355 milliarder params (32 milliarder aktive) til 744 milliarder (40 milliarder aktive), med forhåndstreningsdata som vokser fra 23 til 28,5 tonn tokens. Prøv nå: Vekter: Teknologiblogg: OpenRouter (tidligere Pony Alpha): Utrulling fra Coding Plan Max-brukere:
På vår interne evalueringssuite CC-Bench-V2 presterer GLM-5 betydelig bedre enn GLM-4.7 på frontend-, backend- og langsiktige oppgaver, og reduserer gapet til Claude Opus 4.5.
For GLM Coding Plan-abonnenter: På grunn av begrenset datakapasitet ruller vi gradvis ut GLM-5 til Coding Plan-brukere. - Max-planbrukere: Du kan aktivere GLM-5 nå ved å oppdatere modellnavnet til "GLM-5" (f.eks. i ~/.claude/settings.json for Claude Code). - Andre plannivåer: Støtte vil bli lagt til gradvis etter hvert som utrullingen utvides. - Kvotemerknad: Forespørsler om GLM-5 bruker mer plankvote enn GLM-4.7.
Vekter er også tilgjengelige på ModelScope:
69