Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
TII, uniwersytet z siedzibą w ZEA, uruchomił Falcon-H1R-7B, mały model rozumowania z otwartymi wagami, który dobrze wypada w porównaniu do modeli o podobnej wielkości
🧠 Silny wynik inteligencji wśród modeli <12B: Falcon-H1R-7B uzyskuje 16 w naszym zaktualizowanym Indeksie Inteligencji Analizy Sztucznej v4.0 - wyprzedza NVIDIA Nemotron Nano 12B V2, ale jest poniżej Qwen3 VL 8B. Model jest dobrze umiejscowiony na granicy Pareto dla Inteligencji w porównaniu do Całkowych Parametrów dla porównywalnych modeli. W porównaniu do innych modeli <12B, Falcon-H1R-7B wypada szczególnie dobrze w 3 indywidualnych ocenach - Ostatni Egzamin Ludzkości (rozumowanie i wiedza), 𝜏²-Bench Telecom (użycie narzędzi agentowych) oraz IFBench (podążanie za instrukcjami)
🇦🇪 Drugi uczestnik rankingu ZEA: Po K2-V2 od MBZUAI, Falcon-H1R-7B jest drugim modelem z organizacji z siedzibą w ZEA w naszych rankingach, wśród morza modeli z USA i Chin. Założony przez rząd Abu Zabi, Technology Innovation Institute (TII) jest globalnym centrum badawczym, którego misją jest przesuwanie granic wiedzy i działa w wielu dziedzinach, w tym energii, technologii kwantowej i kryptografii. Posiadają ponad 100 modeli i wariantów z otwartymi wagami na Huggingface
📖 Umiarkowanie otwarty model: Falcon-H1R-7B uzyskuje 44 w Indeksie Otwartości Analizy Sztucznej - naszym nowo wydanym, ustandaryzowanym, niezależnie ocenianym wskaźniku otwartości modeli AI w zakresie dostępności i przejrzystości. To stawia go przed gpt-oss-20B od OpenAI, ale za Qwen3 VL8B. Nasze najbardziej otwarte modele, od MBZUAI i Allen Institute for AI, dzielą pierwsze miejsce w rankingu z wynikiem 89, napędzane większą przejrzystością i dostępem do ich metodologii szkoleniowej i danych
📈 Wysoka liczba tokenów wyjściowych: Model użył 140M tokenów do ukończenia naszego Indeksu Inteligencji. To klasyfikuje go poniżej GLM-4.7, ale wyżej niż większość innych modeli - zarówno w swojej kategorii wielkości, jak i wśród modeli granicznych
📘 Oczekiwana wiedza dla jego rozmiaru, umiarkowany wskaźnik halucynacji: AA-Omniscience to nasz nowo wydany benchmark mierzący wiedzę faktograficzną i halucynacje modeli. Falcon-H1R-7B otrzymuje umiarkowany wynik -62. Jego wynik dokładności wiedzy (14) mieści się w oczekiwaniach, biorąc pod uwagę, że widzimy silną korelację między rozmiarem modelu a dokładnością (jak wiele faktów model poprawnie zapamiętuje). Model halucynuje 87% czasu, gdy nie pamięta poprawnych odpowiedzi - umiarkowany wynik wśród modeli granicznych i małych modeli z otwartymi wagami
Gratulacje z okazji uruchomienia @TIIuae !

Falcon-H1R-7B to drugi model z siedzibą w ZEA na naszych listach liderów, wśród morza modeli z USA i Chin.

Falcon-H1R-7B ma umiarkowany wynik w Indeksie Otwartości Analizy Sztucznej

Model użył 140M tokenów do ukończenia naszego Indeksu Inteligencji - poniżej GLM-4.7, ale wyżej niż większość innych modeli

Falcon-H1R-7B otrzymuje umiarkowany wynik w AA-Omniscience, z oczekiwaną wiedzą jak na swój rozmiar oraz umiarkowanym wskaźnikiem halucynacji

W porównaniu do podobnych modeli, Falcon-H1R-7B dobrze wypada w Ostatnim Egzaminie Ludzkości (rozumowanie i wiedza), 𝜏²-Bench Telecom (użycie narzędzi agentowych) oraz IFBench (podążanie za instrukcjami)

Dalsza analiza na temat Analizy Sztucznej:
Link do Hugging Face 🤗:
Raport techniczny:
23,06K
Najlepsze
Ranking
Ulubione
