TII, uniwersytet z siedzibą w ZEA, uruchomił Falcon-H1R-7B, mały model rozumowania z otwartymi wagami, który dobrze wypada w porównaniu do modeli o podobnej wielkości 🧠 Silny wynik inteligencji wśród modeli <12B: Falcon-H1R-7B uzyskuje 16 w naszym zaktualizowanym Indeksie Inteligencji Analizy Sztucznej v4.0 - wyprzedza NVIDIA Nemotron Nano 12B V2, ale jest poniżej Qwen3 VL 8B. Model jest dobrze umiejscowiony na granicy Pareto dla Inteligencji w porównaniu do Całkowych Parametrów dla porównywalnych modeli. W porównaniu do innych modeli <12B, Falcon-H1R-7B wypada szczególnie dobrze w 3 indywidualnych ocenach - Ostatni Egzamin Ludzkości (rozumowanie i wiedza), 𝜏²-Bench Telecom (użycie narzędzi agentowych) oraz IFBench (podążanie za instrukcjami) 🇦🇪 Drugi uczestnik rankingu ZEA: Po K2-V2 od MBZUAI, Falcon-H1R-7B jest drugim modelem z organizacji z siedzibą w ZEA w naszych rankingach, wśród morza modeli z USA i Chin. Założony przez rząd Abu Zabi, Technology Innovation Institute (TII) jest globalnym centrum badawczym, którego misją jest przesuwanie granic wiedzy i działa w wielu dziedzinach, w tym energii, technologii kwantowej i kryptografii. Posiadają ponad 100 modeli i wariantów z otwartymi wagami na Huggingface 📖 Umiarkowanie otwarty model: Falcon-H1R-7B uzyskuje 44 w Indeksie Otwartości Analizy Sztucznej - naszym nowo wydanym, ustandaryzowanym, niezależnie ocenianym wskaźniku otwartości modeli AI w zakresie dostępności i przejrzystości. To stawia go przed gpt-oss-20B od OpenAI, ale za Qwen3 VL8B. Nasze najbardziej otwarte modele, od MBZUAI i Allen Institute for AI, dzielą pierwsze miejsce w rankingu z wynikiem 89, napędzane większą przejrzystością i dostępem do ich metodologii szkoleniowej i danych 📈 Wysoka liczba tokenów wyjściowych: Model użył 140M tokenów do ukończenia naszego Indeksu Inteligencji. To klasyfikuje go poniżej GLM-4.7, ale wyżej niż większość innych modeli - zarówno w swojej kategorii wielkości, jak i wśród modeli granicznych 📘 Oczekiwana wiedza dla jego rozmiaru, umiarkowany wskaźnik halucynacji: AA-Omniscience to nasz nowo wydany benchmark mierzący wiedzę faktograficzną i halucynacje modeli. Falcon-H1R-7B otrzymuje umiarkowany wynik -62. Jego wynik dokładności wiedzy (14) mieści się w oczekiwaniach, biorąc pod uwagę, że widzimy silną korelację między rozmiarem modelu a dokładnością (jak wiele faktów model poprawnie zapamiętuje). Model halucynuje 87% czasu, gdy nie pamięta poprawnych odpowiedzi - umiarkowany wynik wśród modeli granicznych i małych modeli z otwartymi wagami Gratulacje z okazji uruchomienia @TIIuae !
Falcon-H1R-7B to drugi model z siedzibą w ZEA na naszych listach liderów, wśród morza modeli z USA i Chin.
Falcon-H1R-7B ma umiarkowany wynik w Indeksie Otwartości Analizy Sztucznej
Model użył 140M tokenów do ukończenia naszego Indeksu Inteligencji - poniżej GLM-4.7, ale wyżej niż większość innych modeli
Falcon-H1R-7B otrzymuje umiarkowany wynik w AA-Omniscience, z oczekiwaną wiedzą jak na swój rozmiar oraz umiarkowanym wskaźnikiem halucynacji
W porównaniu do podobnych modeli, Falcon-H1R-7B dobrze wypada w Ostatnim Egzaminie Ludzkości (rozumowanie i wiedza), 𝜏²-Bench Telecom (użycie narzędzi agentowych) oraz IFBench (podążanie za instrukcjami)
Dalsza analiza na temat Analizy Sztucznej: Link do Hugging Face 🤗: Raport techniczny:
23,06K