トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
UAEを拠点とする大学AIラボであるTIIは、同規模のモデルと比較しても優れた、小型のオープンウェイト推論モデルであるFalcon-H1R-7Bをリリースしました
🧠 <12Bモデル間で高い知能スコア:Falcon-H1R-7Bは更新されたArtificial Analysis Intelligence Index v4.0で16点を獲得し、NVIDIA Nemotron Nano 12B V2より上位ですが、Qwen3 VL 8Bより下です。このモデルは、比較可能なモデルの知能対総パラメータのパレートフロンティアにおいて非常に良い位置にあります。他のモデル<12Bと比較して、Falcon-H1R-7Bは特に3つの個別評価で優れた成績を収めています。これはHumanity's Last Exam(推論と知識)、τ²-Bench Telecom(エージェントツール使用)、IFBench(指示フォローング)です
🇦🇪 2番目のUAEリーダーボードエントリー:MBZUAIのK2-V2に続くFalcon-H1R-7Bは、米国および中国の多数のモデルの中で、UAE拠点の組織による2番目のモデルとしてリーダーボードに入りました。アブダビ政府によって設立されたテクノロジー・イノベーション・インスティテュート(TII)は、知識の最前線を押し広げることを使命とするグローバルな研究センターであり、エネルギー、量子技術、暗号学など複数の分野で活動しています。Huggingfaceには100以上のオープンウェイトモデルやバリエーションがあります
📖 中程度のオープンモデル:Falcon-H1R-7Bは、AIモデルの利用可能性と透明性を兼ねた新たに標準化・独立評価された指標であるArtificial Analysis Openness Indexで44点を獲得しました。これはOpenAIのgpt-oss-20Bより上位ですが、Qwen3 VL8Bの後を下回ることになります。MBZUAIとAllen Institute for AIによる最もオープンなモデルは、より透明性が高く、トレーニング手法やデータへのアクセスが高まったことで、リーダーボードで89位タイです
📈 高出力トークン:モデルは1億4千万トークンを用いて知能指数を完成させました。これはGLM-4.7より下位ですが、サイズカテゴリーやフロンティアモデルの中でも他の多くのモデルよりは高い位置にあります
📘 そのサイズに対する期待知識、中程度の幻覚率:AA-Omniscienceは、モデルの事実知識と幻覚を測定する新たに発表されたベンチマークです。Falcon-H1R-7Bは中程度の-62スコアを獲得しています。その知識精度スコア(14)は、モデルのサイズと正確さ(モデルが正しく記憶する事実の数)に強い相関があることから、期待内です。このモデルは、正しく答えを覚えていない場合、87%の確率で幻覚を経験します。これはフロンティアモデルや小規模なオープンウェイトモデルの両方で中程度のスコアです
ローンチ・@TIIuaeおめでとうございます!

Falcon-H1R-7Bは、米国や中国のモデル群の中で、UAE拠点の企業によるリーダーボードで2番目のモデルです

Falcon-H1R-7Bは人工分析開放度指数(Artificial Analysis Openness Index)で中程度のスコアを持っています

このモデルは1億4千万トークンを使って知能指数を完成させました。GLM-4.7より下ですが、他の多くのモデルよりは高いです

Falcon-H1R-7BはAA-Omniscienceで中程度のスコアを受け、そのサイズに見合った期待知識と中程度の幻覚率を得ています

同等のモデルと比較して、Falcon-H1R-7BはHumanity's Last Exam(推論と知識)、τ²-Bench Telecom(エージェントツール使用)、IFBench(指示に従う)で良好な性能を発揮します

人工分析に関するさらなる分析:
ハグフェイス🤗リンク:
技術レポート:
23.07K
トップ
ランキング
お気に入り
