トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
アリババは0.8Bから9Bまでの4つの新しいQwen3.5モデルをリリースしました。9B(推論、知能指数で32位)は10Bパラメータ下で最も知能の高いモデルであり、4B(推論、27位)は5Bより最も知能が高いですが、どちらも知能指数を実行するために2億00M+の出力トークンを使用しています
@Alibaba_QwenはQwen3.5ファミリーを拡張し、4つのより小さな密度の高いモデルを導入しました:9B(推論、知能指数で32)、4B(推論、27)、2B(推論、16)、0.8B(推論、9)。これらは今月初めに発売されたより大きな397B、27B、122B A10B、35B A3Bモデルを補完するものです。すべてのモデルはApache 2.0ライセンスを受けており、262Kコンテキストをサポートし、ネイティブビジョン対応を含み、Qwen3.5ファミリーの他のモデルと同じ統一思考/非思考ハイブリッドアプローチを採用しています
推論バリアントの主なベンチマーク結果:
† 9Bと4Bはそれぞれのサイズクラスで最も知能の高いモデルであり、10Bパラメータ内の他のすべてのモデルを上回っています。Qwen3.5 9B(32)は、10B未満の次に近いモデルであるFalcon-H1R-7B(16)とNVIDIA Nemotron Nano 9B V2(Reasoning、15)のほぼ倍のスコアを獲得しています。Qwen3.5 4B(27)は、パラメータの約半分にもかかわらずこれらすべてを上回っています。4つの小型Qwen3.5モデルはすべて、知能対総パラメータチャートのパレートフロンティアに位置しています
† Qwen3.5世代は、Qwen3に対してQwen3よりも物質知能が向上し、10B未満のモデルサイズで、総パラメータ数が増えるほど大きな向上を示します。推論の比較:Qwen3.5 9B(32)はQwen3 VL 8B(17)に15ポイントリードし、4B(27)はQwen3 4B 2507(18)より9ポイント上回り、2B(16)はQwen3 1.7B(推定13)に3ポイント上回り、0.8B(9)はQwen3 0.6B(6.5)に2.5ポイント上回っています。
† 4つのモデルすべてが2億3,000万〜3億9,000万の出力トークンを使って知能指数を運用しており、これはより大きなQwen3.5の兄弟モデルやQwen3の前身モデルよりも大幅に多いです。Qwen3.5 2Bは~390Mの出力トークンを使用し、4Bは~240M、0.8Bは~230M、9Bは~260Mを使用しました。参考までに、はるかに大きなQwen3.5 27Bは98Mを使用し、397Bフラッグシップは86Mを使用していました。これらのトークン数は、Gemini 3.1 Pro Preview(57M)、GPT-5.2(xhigh、1億30M)、GLM-5 Reasoning(109M)といった多くのフロンティアモデルを上回っています
† AA全知は比較的弱点であり、4Bと9Bの幻覚率は80〜82%です。Qwen3.5 4BはAA-Omniscienceで-57点、幻覚率80%、精度12.8%です。Qwen3.5 9Bは-56点、幻覚率82%、正確率14.7%です。これらはQwen3の前身(Qwen3 4B 2507: -61、幻覚84%、精度12.7%)よりわずかに優れており、改善の主な要因は高い精度よりも幻覚の発生率の低下によるものです。
† Qwen3.5のサブ10Bモデルは、これまでにないスケールで高い知能とネイティブビジョンを融合させています。MMMU-Pro(マルチモーダル推論)では、Qwen3.5 9Bが69.2%、4Bが65.4%のスコアを得ており、Qwen3 VL 8B(56.6%)、Qwen3 VL 4B(52.0%)、Ministral 3 8B(46.0%)を上回っています。Qwen3.5 0.8Bは25.8%のスコアで、1B未満モデルとしては注目すべき数字です
その他の情報:
† コンテキストウィンドウ:262Kトークン
† ライセンス:Apache 2.0
† 量子化:ネイティブ重みはBF16です。アリババはこれらの小規模モデルに対してファーストパーティのGPTQ-Int4量子化を公開していませんが、以前にリリースされたQwen3.5ファミリーの大型モデル(27B、35B-A3B、122B-A10B、397B-A17B)については公開しています。4ビット量子化では、これら4つのモデルすべてが消費者向けハードウェアで利用可能です
† 利用可能性:公開時点で、これらのモデルをホストするファーストパーティまたはサードパーティのサーバーレスAPIは存在しません

Qwen3.5世代は、Qwen3に比べて小規模モデル知能が大きく変化したものです。9BはQwen3 VL 8Bに対して15ポイント上昇(17ポイントから32ポイント)、4BはQwen3 4B 2507ポイント(18ポイントから27ポイント)、2BはQwen3 1.7B(13ポイント対16ポイント)に3ポイント上昇し、0.8BはQwen3 0.6B(6.5ポイントから9ポイント)に2.5ポイント上昇しました。

知能向上は、ピアと比べてトークン使用量が高いという代償を伴います。4つの10B未満のQwen3.5モデルはすべて、知能指数を実行するために230M+の出力トークンを使用しており、これはほとんどのフロンティアモデルやQwen3の前身よりもかなり高い数値です

Qwen3.5、9Bおよび4Bモデルは、15Bパラメータ下で最も知能の高いマルチモーダルモデルです。MMMU-Proでは、Qwen3.5の9B(69%)と4B(65%)が15B未満モデルのトップをリードしています

4モデルすべての個別結果の内訳

Qwen3.5ファミリーを他の主要モデルと比較してください:
8.56K
トップ
ランキング
お気に入り
