Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
O TII, um laboratório universitário de IA com sede nos Emirados Árabes Unidos, lançou o Falcon-H1R-7B, um modelo de raciocínio de pequenos pesos abertos que se compara bem a modelos de tamanho semelhante
🧠 Pontuação forte de inteligência entre os modelos <12B: Falcon-H1R-7B pontua 16 em nosso atualizado Índice de Inteligência de Análise Artificial v4.0 - à frente do NVIDIA Nemotron Nano 12B V2, mas abaixo do Qwen3 VL 8B. O modelo está bem posicionado na fronteira de Pareto para Inteligência versus Parâmetros Totais para modelos comparáveis. Em relação a outros modelos <12B, Falcon-H1R-7B tem desempenho particularmente bom em 3 avaliações individuais - Exame Final da Humanidade (raciocínio e conhecimento), τ²-Bench Telecom (uso de ferramentas agentes) e IFBench (acompanhamento de instrução)
🇦🇪 Segundo participante no ranking dos Emirados Árabes Unidos: Após o K2-V2 da MBZUAI, o Falcon-H1R-7B é o segundo modelo de uma organização sediada nos Emirados Árabes Unidos em nossos rankings, entre uma série de modelos dos EUA e da China. Fundado pelo governo de Abu Dhabi, o Technology Innovation Institute (TII) é um centro global de pesquisa cuja missão é expandir as fronteiras do conhecimento, atuando em múltiplos domínios, incluindo energia, tecnologia quântica e criptografia. Eles possuem mais de 100 modelos open weight e variantes do Huggingface
📖 Modelo moderadamente aberto: Falcon-H1R-7B pontua 44 no Índice de Abertura de Análise Artificial - nossa medida recém-lançada, padronizada e avaliada de forma independente da abertura do modelo de IA em termos de disponibilidade e transparência. Isso o coloca à frente do gpt-oss-20B da OpenAI, mas atrás do Qwen3 VL8B. Nossos modelos mais abertos, da MBZUAI e do Allen Institute for AI, empatam na tabela de líderes em 89, impulsionados por maior transparência e acesso à metodologia de treinamento e aos dados
📈 Tokens de alta produção: O modelo usou tokens de 140 milhões para completar nosso Índice de Intelixência. Isso o coloca abaixo do GLM-4.7, mas acima da maioria dos outros modelos – tanto na categoria de tamanho quanto entre os modelos de fronteira
📘 Conhecimento esperado para seu tamanho, taxa moderada de alucinações: AA-Omniscience é nosso benchmark recém-lançado que mede conhecimento factual e alucinações de modelos. Falcon-H1R-7B recebe uma pontuação moderada de -62. Sua pontuação de precisão do conhecimento (14) está dentro das expectativas, dado que vemos uma forte correlação entre tamanho do modelo e precisão (quantos fatos o modelo lembra corretamente). O modelo alucina 87% das vezes quando não lembra corretamente as respostas – uma pontuação moderada tanto entre modelos de vanguarda quanto entre modelos de peso aberto pequenos
Parabéns pelo lançamento @TIIuae!

Falcon-H1R-7B é o segundo modelo de uma empresa dos Emirados Árabes Unidos em nossos rankings, entre uma série de modelos dos EUA e da China

Falcon-H1R-7B possui uma pontuação moderada no Índice de Abertura de Análise Artificial

O modelo usou 140 milhões de tokens para completar nosso Índice de Inteligência - abaixo do GLM-4,7, mas maior que a maioria dos outros modelos

Falcon-H1R-7B recebe uma pontuação moderada em AA-Oniscience, com conhecimento esperado para seu tamanho e taxa moderada de alucinação

Em relação a modelos comparáveis, Falcon-H1R-7B tem bom desempenho no Exame Final da Humanidade (raciocínio e conhecimento), τ²-Bench Telecom (uso de ferramentas agentes) e IFBench (instrução subsequente)

Análise adicional sobre Análise Artificial:
Link de abraços no rosto 🤗:
Relatório técnico:
31,51K
Melhores
Classificação
Favoritos
