Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
TII, univerzitní AI laboratoř se sídlem v SAE, vydala Falcon-H1R-7B, malý model uvažování s otevřenými vahami, který se dobře srovnává s modely podobné velikosti
🧠 Silné skóre inteligence mezi modely <12B: Falcon-H1R-7B skóre 16 v našem aktualizovaném Indexu umělé analytické inteligence v4.0 – před NVIDIA Nemotron Nano 12B V2, ale pod Qwen3 VL 8B. Model je dobře umístěn na hranici Pareto pro poměr inteligence versus celkové parametry u srovnatelných modelů. Ve srovnání s ostatními modely <12B si Falcon-H1R-7B vede obzvlášť dobře ve třech individuálních hodnoceních – Humanity's Last Examination (uvažování a znalosti), τ²-Bench Telecom (použití agentických nástrojů) a IFBench (sledování instrukcí)
🇦🇪 Druhý účastník žebříčku SAE: Po K2-V2 od MBZUAI je Falcon-H1R-7B druhým modelem od organizace se sídlem v SAE na našich žebříčcích, mezi množstvím amerických a čínských modelů. Založený vládou Abú Dhabí je Technology Innovation Institute (TII) globální výzkumné centrum, jehož posláním je posouvat hranice poznání a působí v mnoha oblastech včetně energetiky, kvantové technologie a kryptografie. Mají přes 100 modelů a variant Huggingface s otevřenými váhami
📖 Mírně otevřený model: Falcon-H1R-7B dosahuje 44 bodů v Artificial Analysis Openness Index – našem nově zveřejněném, standardizovaném, nezávisle hodnoceném měřítku otevřenosti AI modelů napříč dostupností a transparentností. To ho řadí před GPT-oss-20B od OpenAI, ale za Qwen3 VL8B. Naše nejotevřenější modely, vytvořené MBZUAI a Allen Institute for AI, se dělí na 89. místě, což je poháněno větší transparentností a přístupem k jejich metodologii a datům
📈 Tokeny s vysokým výstupem: Model použil 140 milionů tokenů k dokončení našeho Indexu inteligence. To jej řadí pod GLM-4.7, ale výše než většina ostatních modelů – jak v kategorii velikosti, tak mezi modely Frontier
📘 Očekávané znalosti vzhledem k jeho velikosti, střední míra halucinací: AA-Omniscience je náš nově zveřejněný benchmark měřící faktické znalosti a halucinace modelů. Falcon-H1R-7B získává střední skóre -62. Jeho skóre přesnosti znalostí (14) je v rámci očekávání, vzhledem k silné korelaci mezi velikostí modelu a přesností (kolik faktů si model správně pamatuje). Model halucinuje v 87 % případů, kdy si správně nepamatuje odpovědi – což je střední skóre jak u modelů Frontier, tak u modelů s malými otevřenými váhami
Gratuluji k uvedení @TIIuae!

Falcon-H1R-7B je druhý model od společnosti se sídlem v SAE na našich žebříčcích, mezi množstvím amerických a čínských modelů

Falcon-H1R-7B má střední skóre v indexu otevřenosti umělé analýzy

Model použil 140 milionů tokenů k dokončení našeho Indexu inteligence – pod GLM-4,7, ale více než většina ostatních modelů

Falcon-H1R-7B získává střední skóre v AA-Vševědoucnosti, s očekávanými znalostmi ohledně své velikosti a mírou halucinací

Ve srovnání s podobnými modely si Falcon-H1R-7B vede dobře v testech Humanity's Last Examination (uvažování a znalosti), τ²-Bench Telecom (použití agentických nástrojů) a IFBench (sledování instrukcí)

Další analýza o umělé analýze:
Odkaz na objímající tvář: 🤗
Technická zpráva:
23,04K
Top
Hodnocení
Oblíbené
