TII, UAE:ssa toimiva yliopistojen tekoälylaboratorio, on julkaissut Falcon-H1R-7B:n, pienen avoimen painon päättelymallin, joka vertautuu hyvin samankokoisiin malleihin 🧠 Vahva älykkyyspiste <12B-malleissa: Falcon-H1R-7B saa 16 pistettä päivitetyssä Artificial Analysis Intelligence Index v4.0:ssa – edellä NVIDIA Nemotron Nano 12B V2:ta, mutta alle Qwen3 VL 8B:n. Malli on hyvin sijoittunut Pareton rajamailla älykkyyden ja kokonaisparametrien vertailun osalta. Verrattuna muihin malleihin <12B, Falcon-H1R-7B suoriutuu erityisen hyvin kolmessa yksittäisessä arvioinnissa – Humanity's Last Exam (päättely ja tieto), τ²-Bench Telecom (agenttityökalujen käyttö) ja IFBench (ohjeiden seuraaminen) 🇦🇪 Toinen UAE:n tulostaulun osallistuja: MBZUAin K2-V2:n jälkeen Falcon-H1R-7B on toinen malli Yhdistyneiltä arabiemiirikunnissa toimivalta organisaatiolta tulostaulujemme joukossa, Yhdysvaltojen ja Kiinan mallien joukossa. Abu Dhabin hallituksen perustama Technology Innovation Institute (TII) on globaali tutkimuskeskus, jonka tehtävänä on laajentaa tiedon rajoja, ja se toimii useilla aloilla, mukaan lukien energia, kvanttiteknologia ja kryptografia. Heillä on yli 100 avointa painomallia ja versiota Huggingfacesta 📖 Kohtalaisen avoin malli: Falcon-H1R-7B saa 44 pistettä Artificial Analysis Openness Indexissä – vastikään julkaistussa, standardoidussa ja itsenäisesti arvioidussa tekoälymallin avoimuuden mittarissa saatavuuden ja läpinäkyvyyden osalta. Tämä sijoittaa sen OpenAI:n gpt-oss-20B:n edelle, mutta Qwen3 VL8B:n taakse. Avoimimmat mallimme, MBZUAI:n ja Allen Institute for AI:n suunnittelemat, jakavat tulostaulukon 89:ään, mikä johtuu suuremmasta läpinäkyvyydestä ja pääsystä koulutusmenetelmiin ja dataan 📈 Korkean tuoton tokenit: Mallissa käytettiin 140 miljoonaa tokenia Intelligence Indexin täydentämiseen. Tämä sijoittaa sen GLM-4.7:n alapuolelle, mutta korkeammaksi kuin useimmat muut mallit – sekä kokoluokassaan että rajamallien joukossa 📘 Odotettu tieto kokoonsa nähden, kohtuullinen hallusinaatioprosentti: AA-Omniscience on vastikään julkaistu vertailukohtamme, joka mittaa faktatietoa ja mallien hallusinaatioita. Falcon-H1R-7B saa kohtalaisen pistemäärän -62. Sen tiedontarkkuuspiste (14) on odotusten mukainen, koska mallin koon ja tarkkuuden (kuinka monta faktaa malli oikein muistaa) välillä on vahva korrelaatio. Malli näkee hallusinaatioita 87 % ajasta, kun se ei muista vastauksia oikein – kohtuullinen pistemäärä sekä rajamalleissa että pienissä avoimissa painomalleissa Onnittelut lanseerauksesta @TIIuae!
Falcon-H1R-7B on toinen malli Yhdistyneiltä arabiemiirikunnissa toimivalta yritykseltä tulostauluillamme, Yhdysvaltojen ja Kiinan mallien joukossa
Falcon-H1R-7B:llä on kohtuullinen pistemäärä Artificial Analysis Openness Indexissä
Malli käytti 140 miljoonaa tokenia täydentääkseen älykkyysindeksimme – alle GLM-4.7:n, mutta korkeampi kuin useimmat muut mallit
Falcon-H1R-7B saa kohtuullisen pistemäärän AA-Kaikkitietävyydestä, ja sillä on odotettu tieto sen koosta sekä kohtuullinen hallusinaatioiden määrä
Vertailumalleihin verrattuna Falcon-H1R-7B suoriutuu hyvin Humanity's Last Examissa (päättely ja tieto), τ²-Bench Telecomissa (agenttityökalujen käyttö) ja IFBenchissä (ohjeiden seuraaminen)
Lisäanalyysiä keinotekoisesta analyysistä: Halauslinkki: 🤗 Tekninen raportti:
23,07K