TII, ett universitetsbaserat AI-laboratorium baserat i Förenade Arabemiraten, har släppt Falcon-H1R-7B, en liten modell för öppen vikt som står sig väl jämfört med modeller av liknande storlek 🧠 Stark intelligenspoäng bland <12B-modeller: Falcon-H1R-7B får 16 poäng på vårt uppdaterade Artificial Analysis Intelligence Index v4.0 – före NVIDIA Nemotron Nano 12B V2, men under Qwen3 VL 8B. Modellen är väl placerad på Pareto-fronten för intelligens kontra totala parametrar för jämförbara modeller. Jämfört med andra modeller <12B presterar Falcon-H1R-7B särskilt bra i tre individuella utvärderingar – Humanity's Last Exam (resonemang och kunskap), τ²-Bench Telecom (användning av agentiska verktyg) och IFBench (instruktionsföljning) 🇦🇪 Andra Förenade Arabemiratens toppliste: Efter MBZUAI:s K2-V2 är Falcon-H1R-7B den andra modellen från en organisation baserad i Förenade Arabemiraten på våra topplistor, bland en mängd amerikanska och kinesiska modeller. Grundat av Abu Dhabis regering är Technology Innovation Institute (TII) ett globalt forskningscenter vars uppdrag är att tänja på kunskapens gränser och är aktivt inom flera områden, inklusive energi, kvantteknologi och kryptografi. De har över 100 öppna viktmodeller och varianter av Huggingface 📖 Måttligt öppen modell: Falcon-H1R-7B får 44 poäng i Artificial Analysis Openness Index – vårt nyligen publicerade, standardiserade, oberoende bedömda mått på AI-modellens öppenhet över tillgänglighet och transparens. Detta placerar den före OpenAIs gpt-oss-20B, men bakom Qwen3 VL8B. Våra mest öppna modeller, från MBZUAI och Allen Institute for AI, delar topplistan på 89, drivna av större transparens och tillgång till deras träningsmetodik och data 📈 Högutgångstokens: Modellen använde 140 miljoner tokens för att slutföra vårt Intelligence Index. Detta placerar den under GLM-4,7, men högre än de flesta andra modeller – både i storlekskategori och bland frontier-modellerna 📘 Förväntad kunskap för sin storlek, måttlig hallucinationsfrekvens: AA-Omniscience är vår nyligen publicerade referenspunkt som mäter faktakunskap och hallucinationer i modeller. Falcon-H1R-7B får ett måttligt resultat på -62. Dess kunskapsnoggrannhetspoäng (14) ligger inom förväntan, givet att vi ser en stark korrelation mellan modellstorlek och noggrannhet (hur många fakta modellen korrekt minns). Modellen hallucinerar 87 % av gångerna när den inte minns svaren korrekt – ett måttligt resultat bland både frontier-modeller och små öppna viktmodeller Grattis till lanseringen @TIIuae!
Falcon-H1R-7B är den andra modellen från ett företag baserat i Förenade Arabemiraten på våra topplistor, bland en mängd amerikanska och kinesiska modeller
Falcon-H1R-7B har ett måttligt resultat i Artificial Analysis Openness Index
Modellen använde 140 miljoner tokens för att slutföra vårt Intelligence Index – under GLM-4,7, men högre än de flesta andra modeller
Falcon-H1R-7B får ett måttligt betyg i AA-Allvetande, med förväntad kunskap för sin storlek och en måttlig hallucinationsfrekvens
Jämfört med jämförbara modeller presterar Falcon-H1R-7B väl i Humanity's Last Exam (resonemang och kunskap), τ²-Bench Telecom (användning av agentiska verktyg) och IFBench (instruktionsföljning)
Vidare analys av artificiell analys: Länk till Kramansiktet 🤗: Teknisk rapport:
30,02K