Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
GLM-5 je nový přední model otevřených vah! GLM-5 vede index umělé analytické inteligence mezi modely s otevřenými váhami a dosahuje výrazných nárůstů oproti GLM-4,7 v HDPPval-AA, našem agentickém benchmarku zaměřeném na ekonomicky hodnotné pracovní úkoly
GLM-5 je první novou architekturou @Zai_org od GLM-4.5 – každý z modelů GLM-4.5, 4.6 a 4.7 měl 355B celkovou / 32B aktivní kombinaci expertních modelů. GLM-5 škáluje na 744B celkem / 40B aktivních a integruje DeepSeek Sparse Attention. To více odpovídá počtu parametrů rodiny DeepSeek V3 (celkem 671B / 37B aktivní) a rodiny Kimi K2 od Moonshot (celkem 1T, 32B aktivních). GLM-5 je však vydán s přesností BF16, celková velikost je ~1,5TB – což je větší než DeepSeek V3 a nedávné modely Kimi K2, které byly nativně vydány v přesnosti FP8 a INT4.
Hlavní poznatky:
➤ GLM-5 dosahuje 50 bodů v Indexu inteligence a je novým lídrem v otevřených váhách, což je nárůst oproti skóre GLM-4.7, které mělo 42 – což je osmibodový náskok díky zlepšení v agentickém výkonu a znalostech/halucinacích. Je to poprvé, kdy model s otevřenými vahami dosáhl skóre 50 nebo více na indexu umělé analytické inteligence v4.0, což představuje významné zmenšení rozdílu mezi proprietárními a otevřenými vahami. Umisťuje se nad ostatní frontier modely s otevřenou váhou, jako jsou Kimi K2.5, MiniMax 2.1 a DeepSeek V3.2.
➤ GLM-5 dosahuje nejvyššího skóre Artificial Analysis Agentic Index mezi modely s otevřenými váhami s výsledkem 63, což je celkově třetí místo. To je poháněno silným výkonem GDPval-AA, našeho hlavního ukazatele obecného agentského výkonu u úkolů zaměřených na znalostní práci od přípravy prezentací a analýzy dat až po střih videa. GLM-5 má HDPPval-AA ELO 1412, pouze pod Claude Opus 4.6 a GPT-5.2 (xhigh). GLM-5 představuje výrazné zlepšení výkonu modelů otevřených závaží při reálných ekonomicky hodnotných pracovních úkolech
➤ GLM-5 vykazuje výrazné zlepšení oproti indexu AA-Vševědoucnosti, způsobené sníženou hladinou halucinací. GLM-5 dosahuje -1 v AA-Vševědoucnosti Indexu – což je o 35 bodů lepší než GLM-4,7 (Reasoning, -36). To je způsobeno snížením míry halucinací o 56 procent ve srovnání s GLM-4.7 (Uvažování). GLM-5 toho dosahuje tím, že se častěji zdržuje a má nejnižší úroveň halucinací mezi testovanými modely
➤ GLM-5 použil ~110M výstupních tokenů pro provoz Intelligence Indexu, zatímco u GLM-4.7 měl ~170M výstupních tokenů, což je výrazný pokles i přes vyšší skóre ve většině hodnocení. To posouvá GLM-5 blíže k hranici grafu Inteligence vs. Výstupní tokeny, ale je méně efektivní na tokeny ve srovnání s Opus 4.6
Klíčové údaje o modelu:
➤ Kontextové okno: 200K tokenů, ekvivalent GLM-4.7
Multimodalita: Pouze textový vstup a výstup – Kimi K2.5 zůstává vedoucím modelem otevřených vah pro podporu vstupu obrazu
➤ Velikost: 744B celkových parametrů, 40B aktivních parametrů. Pro samostatné nasazení bude GLM-5 vyžadovat ~1 490GB paměti pro uložení váh v nativní přesnosti BF16
➤ Licence: MIT licence
Dostupnost: V době sdílení této analýzy je GLM-5 dostupný na Z AI jako první straně API a několika třetích stranách, jako jsou @novita_labs ($1/$3,2 za 1M vstupní/výstupní tokeny), @gmi_cloud ($1/$3,2) a @DeepInfra ($0,8/$2,56), s přesností FP8
➤ Trénovací tokeny: Z AI také uvedla, že zvýšila objem předtrénovacích dat z 23T na 28,5T tokenů

GLM-5 vykazuje zlepšení v indexu AA-Vševědoucnost, což je způsobeno nižší hladinou halucinací. To znamená, že model se více zdržuje odpovídání na otázky, které nezná

Rozpis kompletních výsledků

GLM-5 HuggingFace repozitář:
Pro více informací navštivte:
13,99K
Top
Hodnocení
Oblíbené
