Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
TII, UAE:ssa toimiva yliopistojen tekoälylaboratorio, on julkaissut Falcon-H1R-7B:n, pienen avoimen painon päättelymallin, joka vertautuu hyvin samankokoisiin malleihin
🧠 Vahva älykkyyspiste <12B-malleissa: Falcon-H1R-7B saa 16 pistettä päivitetyssä Artificial Analysis Intelligence Index v4.0:ssa – edellä NVIDIA Nemotron Nano 12B V2:ta, mutta alle Qwen3 VL 8B:n. Malli on hyvin sijoittunut Pareton rajamailla älykkyyden ja kokonaisparametrien vertailun osalta. Verrattuna muihin malleihin <12B, Falcon-H1R-7B suoriutuu erityisen hyvin kolmessa yksittäisessä arvioinnissa – Humanity's Last Exam (päättely ja tieto), τ²-Bench Telecom (agenttityökalujen käyttö) ja IFBench (ohjeiden seuraaminen)
🇦🇪 Toinen UAE:n tulostaulun osallistuja: MBZUAin K2-V2:n jälkeen Falcon-H1R-7B on toinen malli Yhdistyneiltä arabiemiirikunnissa toimivalta organisaatiolta tulostaulujemme joukossa, Yhdysvaltojen ja Kiinan mallien joukossa. Abu Dhabin hallituksen perustama Technology Innovation Institute (TII) on globaali tutkimuskeskus, jonka tehtävänä on laajentaa tiedon rajoja, ja se toimii useilla aloilla, mukaan lukien energia, kvanttiteknologia ja kryptografia. Heillä on yli 100 avointa painomallia ja versiota Huggingfacesta
📖 Kohtalaisen avoin malli: Falcon-H1R-7B saa 44 pistettä Artificial Analysis Openness Indexissä – vastikään julkaistussa, standardoidussa ja itsenäisesti arvioidussa tekoälymallin avoimuuden mittarissa saatavuuden ja läpinäkyvyyden osalta. Tämä sijoittaa sen OpenAI:n gpt-oss-20B:n edelle, mutta Qwen3 VL8B:n taakse. Avoimimmat mallimme, MBZUAI:n ja Allen Institute for AI:n suunnittelemat, jakavat tulostaulukon 89:ään, mikä johtuu suuremmasta läpinäkyvyydestä ja pääsystä koulutusmenetelmiin ja dataan
📈 Korkean tuoton tokenit: Mallissa käytettiin 140 miljoonaa tokenia Intelligence Indexin täydentämiseen. Tämä sijoittaa sen GLM-4.7:n alapuolelle, mutta korkeammaksi kuin useimmat muut mallit – sekä kokoluokassaan että rajamallien joukossa
📘 Odotettu tieto kokoonsa nähden, kohtuullinen hallusinaatioprosentti: AA-Omniscience on vastikään julkaistu vertailukohtamme, joka mittaa faktatietoa ja mallien hallusinaatioita. Falcon-H1R-7B saa kohtalaisen pistemäärän -62. Sen tiedontarkkuuspiste (14) on odotusten mukainen, koska mallin koon ja tarkkuuden (kuinka monta faktaa malli oikein muistaa) välillä on vahva korrelaatio. Malli näkee hallusinaatioita 87 % ajasta, kun se ei muista vastauksia oikein – kohtuullinen pistemäärä sekä rajamalleissa että pienissä avoimissa painomalleissa
Onnittelut lanseerauksesta @TIIuae!

Falcon-H1R-7B on toinen malli Yhdistyneiltä arabiemiirikunnissa toimivalta yritykseltä tulostauluillamme, Yhdysvaltojen ja Kiinan mallien joukossa

Falcon-H1R-7B:llä on kohtuullinen pistemäärä Artificial Analysis Openness Indexissä

Malli käytti 140 miljoonaa tokenia täydentääkseen älykkyysindeksimme – alle GLM-4.7:n, mutta korkeampi kuin useimmat muut mallit

Falcon-H1R-7B saa kohtuullisen pistemäärän AA-Kaikkitietävyydestä, ja sillä on odotettu tieto sen koosta sekä kohtuullinen hallusinaatioiden määrä

Vertailumalleihin verrattuna Falcon-H1R-7B suoriutuu hyvin Humanity's Last Examissa (päättely ja tieto), τ²-Bench Telecomissa (agenttityökalujen käyttö) ja IFBenchissä (ohjeiden seuraaminen)

Lisäanalyysiä keinotekoisesta analyysistä:
Halauslinkki: 🤗
Tekninen raportti:
23,07K
Johtavat
Rankkaus
Suosikit
