Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
TII, un laboratoire universitaire basé aux Émirats Arabes Unis, a lancé Falcon-H1R-7B, un petit modèle de raisonnement à poids ouverts qui se compare bien aux modèles de taille similaire
🧠 Score d'intelligence élevé parmi les modèles <12B : Falcon-H1R-7B obtient un score de 16 sur notre indice d'intelligence d'analyse artificielle v4.0 - devant le NVIDIA Nemotron Nano 12B V2, mais derrière le Qwen3 VL 8B. Le modèle est bien positionné sur la frontière de Pareto pour l'intelligence par rapport au nombre total de paramètres pour des modèles comparables. Par rapport à d'autres modèles <12B, Falcon-H1R-7B se distingue particulièrement bien dans 3 évaluations individuelles - L'Examen Final de l'Humanité (raisonnement et connaissance), 𝜏²-Bench Telecom (utilisation d'outils agentiques), et IFBench (suivi d'instructions)
🇦🇪 Deuxième entrant au classement des Émirats : Après le K2-V2 de MBZUAI, Falcon-H1R-7B est le deuxième modèle d'une organisation basée aux Émirats sur nos classements, parmi une mer de modèles américains et chinois. Fondé par le gouvernement d'Abou Dhabi, l'Institut d'Innovation Technologique (TII) est un centre de recherche mondial dont la mission est de repousser les frontières de la connaissance, et est actif dans plusieurs domaines, y compris l'énergie, la technologie quantique et la cryptographie. Ils ont plus de 100 modèles et variantes à poids ouverts sur Huggingface
📖 Modèle modérément ouvert : Falcon-H1R-7B obtient un score de 44 dans l'Indice d'Ouverture d'Analyse Artificielle - notre mesure nouvellement publiée, standardisée et évaluée de manière indépendante de l'ouverture des modèles d'IA en termes de disponibilité et de transparence. Cela le place devant le gpt-oss-20B d'OpenAI, mais derrière le Qwen3 VL8B. Nos modèles les plus ouverts, par MBZUAI et l'Allen Institute for AI, partagent le sommet du classement à 89, grâce à une plus grande transparence et un accès à leur méthodologie et données d'entraînement
📈 Tokens de sortie élevés : Le modèle a utilisé 140M de tokens pour compléter notre Indice d'Intelligence. Cela le classe en dessous de GLM-4.7, mais au-dessus de la plupart des autres modèles - tant dans sa catégorie de taille que parmi les modèles de pointe
📘 Connaissances attendues pour sa taille, taux d'hallucination modéré : AA-Omniscience est notre nouvel indice mesurant la connaissance factuelle et l'hallucination des modèles. Falcon-H1R-7B reçoit un score modéré de -62. Son score de précision des connaissances (14) est conforme aux attentes, étant donné que nous observons une forte corrélation entre la taille du modèle et la précision (combien de faits le modèle se souvient correctement). Le modèle hallucine 87% du temps lorsqu'il ne se souvient pas correctement des réponses - un score modéré parmi les modèles de pointe et les petits modèles à poids ouverts
Félicitations pour le lancement @TIIuae !

Le Falcon-H1R-7B est le deuxième modèle d'une entreprise basée aux Émirats Arabes Unis sur nos classements, parmi une mer de modèles américains et chinois.

Falcon-H1R-7B a un score modéré dans l'Indice d'Ouverture de l'Analyse Artificielle

Le modèle a utilisé 140 millions de tokens pour compléter notre Indice d'Intelligence - en dessous de GLM-4.7, mais supérieur à la plupart des autres modèles

Falcon-H1R-7B obtient un score modéré dans AA-Omniscience, avec une connaissance attendue pour sa taille et un taux d'hallucination modéré

Par rapport à des modèles comparables, le Falcon-H1R-7B performe bien dans le Dernier Examen de l'Humanité (raisonnement et connaissance), 𝜏²-Bench Telecom (utilisation d'outils agentiques) et IFBench (suivi d'instructions)

Analyse approfondie sur l'Analyse Artificielle :
Lien Hugging Face 🤗 :
Rapport technique :
32,74K
Meilleurs
Classement
Favoris
