GLM-5 este noul model principal pentru greutăți deschise! GLM-5 conduce Indicele de Inteligență în Analiză Artificială printre modelele cu greutăți deschise și obține câștiguri mari față de GLM-4.7 în GDPval-AA, reperul nostru agentic axat pe sarcini de lucru valoroase din punct de vedere economic GLM-5 este prima arhitectură nouă a @Zai_org de la GLM-4.5 – fiecare dintre modelele GLM-4.5, 4.6 și 4.7 a fost o combinație de 355B în total / 32B cu parametri activi de modele experți. GLM-5 scalează la 744B total / 40B activ și integrează DeepSeek Sparse Attention. Acest lucru plasează GLM-5 mai în linie cu numărul de parametri al familiei DeepSeek V3 (671B total / 37B activ) și al familiei Kimi K2 de la Moonshot (1T total, 32B activ). Totuși, GLM-5 este lansat în precizia BF16, având o dimensiune totală de ~1,5TB - mai mare decât DeepSeek V3 și modelele recente Kimi K2, lansate nativ în precizia FP8 și INT4, respectiv. Concluzii cheie: ➤ GLM-5 obține un scor de 50 în Indicele de Inteligență și este noul lider în greutăți deschise, în creștere față de scorul de 42 al GLM-4.7 – o creștere de 8 puncte determinată de îmbunătățiri în performanța agențică și cunoaștere/halucinații. Aceasta este prima dată când un model open weights atinge un scor de 50 sau mai mult pe Artificial Analysis Intelligence Index v4.0, reprezentând o reducere semnificativă a decalajului dintre modelele proprietare și cele open weights. Se poziționează deasupra altor modele open weight de frontieră precum Kimi K2.5, MiniMax 2.1 și DeepSeek V3.2. ➤ GLM-5 obține cel mai mare scor în Artificial Analysis Agentic Index dintre modelele open weights, cu un scor de 63, clasându-se pe locul trei la general. Acest lucru este determinat de performanța puternică a GDPval-AA, principalul nostru indicator pentru performanța agentică generală pe sarcini de lucru în domeniul cunoașterii, de la pregătirea prezentărilor și analiza datelor până la editarea video. GLM-5 are un ELO GDPval-AA de 1412, doar sub Claude Opus 4.6 și GPT-5.2 (xhigh). GLM-5 reprezintă o creștere semnificativă a performanței modelelor cu greutăți deschise la sarcini reale cu valoare economică ➤ GLM-5 arată o îmbunătățire semnificativă față de Indicele AA-Omniștiință, determinată de reducerea halucinațiilor. GLM-5 obține un scor de -1 la Indicele AA-Omniștiință – o îmbunătățire de 35 de puncte comparativ cu GLM-4,7 (Raționament, -36). Acest lucru este determinat de o reducere de 56 p.p a ratei halucinațiilor comparativ cu GLM-4,7 (Raționament). GLM-5 reușește acest lucru prin abținerea mai frecventă și are cel mai scăzut nivel de halucinații dintre modelele testate ➤ GLM-5 a folosit ~110M tokenuri de ieșire pentru a rula Intelligence Index, comparativ cu ~170M tokenuri de ieșire ale GLM-4.7, o scădere semnificativă în ciuda scorurilor mai mari în majoritatea evaluărilor. Acest lucru împinge GLM-5 mai aproape de frontiera graficului Intelligence vs. Output Tokens, dar este mai puțin eficient ca token comparativ cu Opus 4.6 Detalii cheie despre model: ➤ Fereastră de context: 200K tokenuri, echivalent cu GLM-4.7 Multimodalitate: Doar intrare și ieșire text - Kimi K2.5 rămâne principalul model de greutăți deschise care suportă introducerea imaginilor ➤ Dimensiune: 744B parametri totali, 40B parametri activi. Pentru auto-implementare, GLM-5 va necesita ~1.490GB memorie pentru a stoca greutățile în precizia nativă BF16 ➤ Licențiere: Licență MIT Disponibilitate: La momentul împărtășirii acestei analize, GLM-5 este disponibil pe API-ul first-party al Z AI și pe mai multe API-uri terțe precum @novita_labs ($1/$3,2 pentru 1M tokenuri de intrare/ieșire), @gmi_cloud ($1/$3,2) și @DeepInfra ($0,8/$2,56), în precizie FP8 ➤ Jetoane de antrenament: Z AI a indicat, de asemenea, că a crescut volumul datelor pre-antrenament de la 23T la 28,5T tokenuri
GLM-5 demonstrează o îmbunătățire a Indicelui AA-Omnisciență, determinată de halucinații mai mici. Aceasta înseamnă că modelul se abține mai mult de la a răspunde la întrebări pe care nu le cunoaște
Defalcarea rezultatelor complete
Depozitul GLM-5 HuggingFace: Pentru mai multe informații, vizitați:
14,01K