Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
GLM-5 on uusi johtava avopainomalli! GLM-5 johtaa Artificial Analysis Intelligence Indexiä avoimissa painomalleissa ja tekee suuria edistysaskeleita GLM-4.7:ään nähden GDPval-AA:ssa, joka on agenttivertailuindeksimme taloudellisesti arvokkaisiin työtehtäviin keskittyneenä
GLM-5 on @Zai_org:n ensimmäinen uusi arkkitehtuuri sitten GLM-4.5:n – kaikki GLM-4.5-, 4.6- ja 4.7-mallit olivat yhteensä 355B / 32B aktiivisen parametrin yhdistelmä asiantuntijamalleja. GLM-5 skaalautuu yhteensä 744B:hen / 40B:hen aktiivisena, ja siihen integroidaan DeepSeek Sparse Attention. Tämä asettaa GLM-5:n lähemmäs DeepSeek V3 -perheen (671B yhteensä / 37B aktiivinen) ja Moonshotin Kimi K2 -perheen (1T yhteensä, 32B aktiivinen) parametrimäärää vastaan. GLM-5 julkaistaan kuitenkin BF16-tarkkuudella, kokonaiskooltaan ~1,5TB – suurempi kuin DeepSeek V3 ja uudemmat Kimi K2 -mallit, jotka on julkaistu natiivisti FP8- ja INT4-tarkkuudella.
Tärkeimmät huomiot:
➤ GLM-5 saa 50 pistettä älykkyysindeksissä ja on uusi avoimissa painojen johtajassa, nousua GLM-4.7:n pisteestä 42 – 8 pisteen nousu, jonka ohjaavat parannukset agenttien suorituskyvyssä ja tieto/hallusinaatioissa. Tämä on ensimmäinen kerta, kun avoin painomalli saavuttaa 50 tai enemmän pisteet Artificial Analysis Intelligence Index v4.0 -standardissa, mikä merkitsee merkittävää kuilun kaventamista omistusomien ja avointen painomallien välillä. Se sijoittuu muiden avoimien painomallien, kuten Kimi K2.5:n, MiniMax 2.1:n ja DeepSeek V3.2:n, yläpuolelle.
➤ GLM-5 saavuttaa korkeimman Artificial Analysis Agentic Index -pistemäärän avoimen painon mallien joukossa, pisteillä 63, sijoittuen kolmanneksi kokonaiskilpailussa. Tätä ohjaa vahva suorituskyky GDPval-AA:ssa, joka on ensisijainen mittarimme yleiselle agenttien suorituskyvylle tietotyötehtävissä esitysten valmistelusta ja data-analyysistä videoeditointiin asti. GLM-5:n GDPval-AA ELO on 1412, vain Claude Opus 4.6:n ja GPT-5.2:n (xhigh) alapuolella. GLM-5 edustaa merkittävää parannusta avoimissa painomallien suorituskyvyssä todellisissa taloudellisesti arvokkaissa työtehtävissä
➤ GLM-5 osoittaa merkittävän parannuksen AA-Kaikkitietoindeksiin, jota ohjaa vähentynyt hallusinaatio. GLM-5 saa AA-Omniscience Indexissä -1 – 35 pisteen parannus verrattuna GLM-4.7:ään (Reasoning, -36). Tämä johtuu hallusinaatioiden määrän 56 p.p:n laskusta verrattuna GLM-4.7:ään (Päättely). GLM-5 saavuttaa tämän pidättäytymällä useammin ja sillä on alhaisin hallusinaatiotaso testatuista malleista
➤ GLM-5 käytti ~110M output tokenia Intelligence Indexin suorittamiseen, kun taas GLM-4.7:n ~170M output tokenit olivat merkittävä lasku, vaikka useimmissa arvioinneissa pisteet olivat korkeampia. Tämä vie GLM-5:n lähemmäs Intelligence vs. Output Tokens -kaavion rajaa, mutta on vähemmän token-tehokas verrattuna Opus 4.6:een
Keskeiset mallitiedot:
➤ Kontekstiikkuna: 200 000 tokenia, vastaava kuin GLM-4.7
Multimodaalisuus: Vain tekstin syöttö ja tulostus – Kimi K2.5 on edelleen johtava avoin painomalli, joka tukee kuvan syötettä
➤ Koko: 744B kokonaisparametreja, 40B aktiivisia parametreja. Itsekäyttöönottoon GLM-5 tarvitsee ~1 490 GB muistia painojen tallentamiseen natiivisti BF16:n tarkkuudella
➤ Lisensointi: MIT-lisenssi
Saatavuus: Tämän analyysin jakamisen hetkellä GLM-5 on saatavilla Z AI:n ensimmäisen osapuolen API:ssa sekä useissa kolmannen osapuolen API-rajapinnoissa, kuten @novita_labs ($1/$3,2 per 1M tulo/lähtötoken), @gmi_cloud ($1/$3,2) ja @DeepInfra ($0,8/$2,56), FP8-tarkkuudessa
➤ Koulutustokenit: Z AI ilmoitti myös kasvattaneensa esikoulutusdatan määrää 23T:stä 28,5T:iin

GLM-5 osoittaa parannusta AA-Omniscience Indexissä, jota ohjaa alhaisempi hallusinaatio. Tämä tarkoittaa, että malli pidättäytyy enemmän vastaamasta kysymyksiin, joita se ei tiedä

Täydellisten tulosten erittely

GLM-5 HuggingFace-tietovarasto:
Lisätietoja löytyy osoitteesta:
14,02K
Johtavat
Rankkaus
Suosikit
