TII, ein KI-Labor einer Universität in den VAE, hat Falcon-H1R-7B veröffentlicht, ein kleines Modell mit offenen Gewichten für das logische Denken, das sich gut mit Modellen ähnlicher Größe vergleichen lässt. 🧠 Starker Intelligenzscore unter <12B-Modellen: Falcon-H1R-7B erzielt 16 in unserem aktualisierten Artificial Analysis Intelligence Index v4.0 - vor NVIDIA Nemotron Nano 12B V2, aber hinter Qwen3 VL 8B. Das Modell ist gut positioniert an der Pareto-Front für Intelligenz vs. Gesamtparameter für vergleichbare Modelle. Im Vergleich zu anderen Modellen <12B schneidet Falcon-H1R-7B in 3 einzelnen Bewertungen besonders gut ab - Humanity’s Last Exam (logisches Denken und Wissen), 𝜏²-Bench Telecom (agentische Werkzeugnutzung) und IFBench (Befehlsbefolgung). 🇦🇪 Zweiter Teilnehmer auf dem VAE-Leaderboard: Nach MBZUAI’s K2-V2 ist Falcon-H1R-7B das zweite Modell einer in den VAE ansässigen Organisation auf unseren Leaderboards, unter einer Vielzahl von US- und chinesischen Modellen. Das von der Regierung von Abu Dhabi gegründete Technology Innovation Institute (TII) ist ein globales Forschungszentrum, dessen Mission es ist, die Grenzen des Wissens zu erweitern, und das in mehreren Bereichen aktiv ist, darunter Energie, Quanten-Technologie und Kryptographie. Sie haben über 100 Modelle und Varianten mit offenen Gewichten auf Huggingface. 📖 Moderat offenes Modell: Falcon-H1R-7B erzielt 44 im Artificial Analysis Openness Index - unserem neu veröffentlichten, standardisierten, unabhängig bewerteten Maß für die Offenheit von KI-Modellen in Bezug auf Verfügbarkeit und Transparenz. Dies platziert es vor OpenAI’s gpt-oss-20B, aber hinter Qwen3 VL8B. Unsere offensten Modelle, von MBZUAI und dem Allen Institute for AI, teilen sich mit 89 den ersten Platz, angetrieben durch größere Transparenz und Zugang zu ihrer Trainingsmethodik und Daten. 📈 Hohe Ausgabetoken: Das Modell verwendete 140M Tokens, um unseren Intelligence Index abzuschließen. Dies platziert es unter GLM-4.7, aber höher als die meisten anderen Modelle - sowohl in seiner Größenkategorie als auch unter den Frontier-Modellen. 📘 Erwartetes Wissen für seine Größe, moderate Halluzinationsrate: AA-Omniscience ist unser neu veröffentlichtes Benchmark, das das faktische Wissen und die Halluzination von Modellen misst. Falcon-H1R-7B erhält eine moderate Bewertung von -62. Seine Wissensgenauigkeit (14) liegt im Rahmen der Erwartungen, da wir eine starke Korrelation zwischen Modellgröße und Genauigkeit (wie viele Fakten das Modell korrekt erinnert) beobachten. Das Modell halluziniert 87% der Zeit, wenn es Antworten nicht korrekt erinnert - eine moderate Bewertung sowohl unter den Frontier-Modellen als auch unter den kleinen Modellen mit offenen Gewichten. Herzlichen Glückwunsch zur Einführung @TIIuae !
Der Falcon-H1R-7B ist das zweite Modell eines in den VAE ansässigen Unternehmens auf unseren Bestenlisten, zwischen einer Vielzahl von US- und chinesischen Modellen.
Falcon-H1R-7B hat einen moderaten Wert im Index für die Offenheit der Künstlichen Analyse.
Das Modell verwendete 140 Millionen Tokens, um unseren Intelligence Index abzuschließen - unter GLM-4.7, aber höher als die meisten anderen Modelle
Falcon-H1R-7B erhält eine moderate Bewertung in AA-Omniscience, mit einem erwarteten Wissen für seine Größe und einer moderaten Halluzinationsrate
Im Vergleich zu ähnlichen Modellen schneidet Falcon-H1R-7B gut ab in Humanity’s Last Exam (Schlussfolgerung und Wissen), 𝜏²-Bench Telecom (agentische Werkzeugnutzung) und IFBench (Befolgen von Anweisungen)
Weitere Analysen zur Künstlichen Analyse: Hugging Face 🤗 Link: Technischer Bericht:
23,05K