Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
GLM-5 er den nye ledende modellen for åpne vekter! GLM-5 leder Artificial Analysis Intelligence Index blant åpne vektmodeller og gjør store fremskritt over GLM-4.7 i GDPval-AA, vår agentiske referanse med fokus på økonomisk verdifulle arbeidsoppgaver
GLM-5 er @Zai_org første nye arkitektur siden GLM-4.5 – hver av GLM-4.5-, 4.6- og 4.7-modellene hadde totalt 355B / 32B aktive parameter-blandinger av ekspertmodeller. GLM-5 skalerer til totalt 744B / 40B aktiv, og integrerer DeepSeek Sparse Attention. Dette plasserer GLM-5 mer i tråd med parameterantallet til DeepSeek V3-familien (671B totalt / 37B aktiv) og Moonshots Kimi K2-familie (1T totalt, 32B aktiv). GLM-5 er imidlertid lansert i BF16 presisjon, med en total størrelse på ~1,5TB – større enn DeepSeek V3 og nyere Kimi K2-modeller som har blitt lansert direkte i henholdsvis FP8 og INT4 presisjon.
Viktige punkter:
➤ GLM-5 scorer 50 på Intelligence Index og er den nye lederen i åpne vekter, opp fra GLM-4,7 sin score på 42 – et hopp på 8 poeng drevet av forbedringer innen agentisk ytelse og kunnskap/hallusinasjon. Dette er første gang en åpen vektmodell har oppnådd en score på 50 eller høyere på Artificial Analysis Intelligence Index v4.0, noe som representerer en betydelig reduksjon av gapet mellom proprietære og åpne vektmodeller. Den plasserer seg over andre frontier åpne vektmodeller som Kimi K2.5, MiniMax 2.1 og DeepSeek V3.2.
➤ GLM-5 oppnår den høyeste Artificial Analysis Agentic Index-scoren blant åpne vektmodeller med en score på 63, og rangerer som nummer tre totalt. Dette drives av sterk ytelse i GDPval-AA, vår primære måling for generell agentisk prestasjon på kunnskapsarbeidsoppgaver fra forberedelse av presentasjoner og dataanalyse til videoredigering. GLM-5 har en GDPval-AA ELO på 1412, bare under Claude Opus 4.6 og GPT-5.2 (xhigh). GLM-5 representerer en betydelig forbedring i åpenvektmodellenes ytelse på virkelige, økonomisk verdifulle arbeidsoppgaver
➤ GLM-5 viser en stor forbedring på AA-Omniscience Index, drevet av redusert hallusinasjon. GLM-5 scorer -1 på AA-Omniscience Index – en forbedring på 35 poeng sammenlignet med GLM-4,7 (Reasoning, -36). Dette skyldes en reduksjon på 56 p.p i hallusinasjonsraten sammenlignet med GLM-4,7 (Resonnement). GLM-5 oppnår dette ved å avstå oftere og har det laveste nivået av hallusinasjoner blant de testede modellene
➤ GLM-5 brukte ~110 millioner utdatatokens for å kjøre Intelligence Index, sammenlignet med GLM-4.7s ~170 millioner utdatatokens, en betydelig nedgang til tross for høyere poengsummer på tvers av de fleste evalueringer. Dette bringer GLM-5 nærmere grensen for Intelligence vs. Output Tokens-diagrammet, men er mindre token-effektivt sammenlignet med Opus 4.6
Viktige modelldetaljer:
➤ Kontekstvindu: 200 000 tokens, tilsvarende GLM-4.7
Multimodalitet: Kun tekstinn- og utdata – Kimi K2.5 er fortsatt den ledende modellen med åpne vekter som støtter bildeinndata
➤ Størrelse: 744B totale parametere, 40B aktive parametere. For selvutrulling vil GLM-5 kreve ~1 490 GB minne for å lagre vektene i native BF16-presisjon
➤ Lisensiering: MIT-lisens
Tilgjengelighet: På tidspunktet for delingen av denne analysen er GLM-5 tilgjengelig på Z AIs førsteparts-API og flere tredjeparts-API-er som @novita_labs ($1/$3,2 per 1 million input/output-tokens), @gmi_cloud ($1/$3,2) og @DeepInfra ($0,8/$2,56), i FP8-presisjon
➤ Treningstokens: Z AI har også indikert at de har økt volumet av forhåndstreningsdata fra 23T til 28,5T tokens

GLM-5 viser forbedring i AA-Omniscience Index, drevet av lavere hallusinasjoner. Dette betyr at modellen i større grad avstår fra å svare på spørsmål den ikke kjenner til

Oversikt over fullstendige resultater

GLM-5 HuggingFace-arkiv:
For mer informasjon, besøk:
14,03K
Topp
Rangering
Favoritter
