TII, un laboratorio universitario de IA con sede en los EAU, ha lanzado Falcon-H1R-7B, un modelo de razonamiento de pesos abiertos pequeños que se compara bien con modelos de tamaño similar 🧠 Puntuación de inteligencia fuerte entre los modelos <12B: Falcon-H1R-7B obtiene una puntuación de 16 en nuestro actualizado Índice de Inteligencia de Análisis Artificial v4.0, por delante del NVIDIA Nemotron Nano 12B V2, pero por debajo de Qwen3 VL 8B. El modelo está bien posicionado en la frontera de Pareto para Inteligencia frente a Parámetros Totales para modelos comparables. En comparación con otros modelos <12B, Falcon-H1R-7B destaca especialmente en 3 evaluaciones individuales: Humanity's Last Examination (razonamiento y conocimiento), τ²-Bench Telecom (uso de herramientas agenticas) e IFBench (seguimiento de instrucciones) 🇦🇪 Segundo participante en la clasificación de los EAU: Tras el K2-V2 de MBZUAI, el Falcon-H1R-7B es el segundo modelo de una organización con sede en los EAU en nuestras clasificaciones, entre una avalancha de modelos estadounidenses y chinos. Fundado por el gobierno de Abu Dabi, el Instituto de Innovación Tecnológica (TII) es un centro de investigación global cuya misión es expandir las fronteras del conocimiento, y está activo en múltiples ámbitos, incluyendo energía, tecnología cuántica y criptografía. Tienen más de 100 modelos de peso descubierto y variantes de Huggingface 📖 Modelo moderadamente abierto: Falcon-H1R-7B obtiene una puntuación de 44 en el Índice de Apertura de Análisis Artificial, nuestra medida estandarizada y evaluada de forma independiente de la apertura de modelos de IA en cuanto a disponibilidad y transparencia. Esto lo sitúa por delante de gpt-oss-20B de OpenAI, pero por detrás de Qwen3 VL8B. Nuestros modelos más abiertos, de MBZUAI y Allen Institute for AI, empatan en la tabla de posiciones en el puesto 89, impulsados por una mayor transparencia y acceso a su metodología de entrenamiento y datos 📈 Tokens de alta producción: El modelo utilizó 140 millones de tokens para completar nuestro Índice de Inteligencia. Esto lo sitúa por debajo del GLM-4.7, pero por encima de la mayoría de los otros modelos, tanto en su categoría de tamaño como entre los modelos frontera 📘 Conocimiento esperado para su tamaño, tasa moderada de alucinaciones: AA-Omniscience es nuestro nuevo punto de referencia que mide el conocimiento factual y las alucinaciones de modelos. El Falcon-H1R-7B obtiene una puntuación moderada de -62. Su puntuación de precisión del conocimiento (14) está dentro de las expectativas, dado que vemos una fuerte correlación entre el tamaño del modelo y la precisión (cuántos hechos recuerda correctamente el modelo). El modelo alucina el 87% de las veces cuando no recuerda correctamente las respuestas, una puntuación moderada tanto entre modelos frontera como entre modelos de peso abierto ¡Enhorabuena por el lanzamiento @TIIuae!
El Falcon-H1R-7B es el segundo modelo de una empresa con sede en los EAU en nuestras clasificaciones, entre un mar de modelos estadounidenses y chinos
Falcon-H1R-7B tiene una puntuación moderada en el Índice de Apertura de Análisis Artificial
El modelo utilizó 140 millones de tokens para completar nuestro Índice de Inteligencia, por debajo de GLM-4,7, pero superior a la mayoría de los otros modelos
Falcon-H1R-7B obtiene una puntuación moderada en AA-Omnisciencia, con un conocimiento esperado de su tamaño y una tasa moderada de alucinaciones
En comparación con modelos comparables, Falcon-H1R-7B rinde bien en Humanity's Last Examination (razonamiento y conocimiento), τ²-Bench Telecom (uso de herramientas agentes) e IFBench (seguimiento de instrucciones)
Análisis adicional sobre el Análisis Artificial: Enlace de abrazo en la cara 🤗: Informe técnico:
31.52K