Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
O TII, um laboratório de IA de uma universidade dos EAU, lançou o Falcon-H1R-7B, um pequeno modelo de raciocínio com pesos abertos que se compara bem a modelos de tamanho semelhante
🧠 Pontuação de inteligência forte entre modelos <12B: O Falcon-H1R-7B pontua 16 no nosso atualizado Índice de Inteligência de Análise Artificial v4.0 - à frente do NVIDIA Nemotron Nano 12B V2, mas abaixo do Qwen3 VL 8B. O modelo está bem posicionado na fronteira de Pareto para Inteligência vs Total de Parâmetros para modelos comparáveis. Em relação a outros modelos <12B, o Falcon-H1R-7B apresenta um desempenho particularmente bom em 3 avaliações individuais - Último Exame da Humanidade (raciocínio e conhecimento), 𝜏²-Bench Telecom (uso de ferramentas agentivas) e IFBench (seguindo instruções)
🇦🇪 Segundo participante do ranking dos EAU: Após o K2-V2 da MBZUAI, o Falcon-H1R-7B é o segundo modelo de uma organização baseada nos EAU em nossos rankings, entre um mar de modelos dos EUA e da China. Fundado pelo governo de Abu Dhabi, o Technology Innovation Institute (TII) é um centro de pesquisa global cuja missão é expandir as fronteiras do conhecimento e está ativo em múltiplos domínios, incluindo energia, tecnologia quântica e criptografia. Eles têm mais de 100 modelos e variantes com pesos abertos no Huggingface
📖 Modelo moderadamente aberto: O Falcon-H1R-7B pontua 44 no Índice de Abertura de Análise Artificial - nossa medida recém-lançada, padronizada e avaliada de forma independente sobre a abertura de modelos de IA em termos de disponibilidade e transparência. Isso o coloca à frente do gpt-oss-20B da OpenAI, mas atrás do Qwen3 VL8B. Nossos modelos mais abertos, da MBZUAI e do Allen Institute for AI, empatam no ranking com 89, impulsionados por uma maior transparência e acesso à sua metodologia de treinamento e dados
📈 Alta quantidade de tokens de saída: O modelo usou 140M de tokens para completar nosso Índice de Inteligência. Isso o classifica abaixo do GLM-4.7, mas acima da maioria dos outros modelos - tanto na sua categoria de tamanho quanto entre modelos de fronteira
📘 Conhecimento esperado para seu tamanho, taxa moderada de alucinação: O AA-Omniscience é nosso novo benchmark que mede o conhecimento factual e a alucinação de modelos. O Falcon-H1R-7B recebe uma pontuação moderada de -62. Sua pontuação de precisão de conhecimento (14) está dentro das expectativas, dado que vemos uma forte correlação entre o tamanho do modelo e a precisão (quantos fatos o modelo lembra corretamente). O modelo alucina 87% das vezes quando não lembra corretamente as respostas - uma pontuação moderada entre modelos de fronteira e modelos pequenos com pesos abertos
Parabéns pelo lançamento @TIIuae !

Falcon-H1R-7B é o segundo modelo de uma empresa baseada nos EAU nas nossas tabelas de classificação, entre um mar de modelos dos EUA e da China

Falcon-H1R-7B tem uma pontuação moderada no Índice de Abertura da Análise Artificial

O modelo usou 140M de tokens para completar o nosso Índice de Inteligência - abaixo do GLM-4.7, mas acima da maioria dos outros modelos

Falcon-H1R-7B recebe uma pontuação moderada em AA-Omniscience, com um conhecimento esperado para o seu tamanho e uma taxa de alucinação moderada

Em comparação com modelos semelhantes, o Falcon-H1R-7B apresenta um bom desempenho no Último Exame da Humanidade (raciocínio e conhecimento), 𝜏²-Bench Telecom (uso de ferramentas agentivas) e IFBench (seguimento de instruções)

Análise adicional sobre Análise Artificial:
Link do Hugging Face 🤗:
Relatório técnico:
23,07K
Top
Classificação
Favoritos
