Trend Olan Konular
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Alibaba, 0.8B'den 9B'ye kadar 4 yeni Qwen3.5 modeli piyasaya sürdü. 9B (Akıl yürütme, Zeka Endeksi'nde 32) 10B parametreleri altında en zeki model, 4B (Akıl yürütme, 27) ise 5B altında en zeki modeldir, ancak her ikisi de Zeka İndeksini çalıştırmak için 200M+ çıkış tokenı kullanır
@Alibaba_Qwen, Qwen3.5 ailesini dört daha küçük yoğun modelle genişletmiştir: 9B (Akıl yürütme, Zeka Indeksinde 32), 4B (Akıl yürütme, 27), 2B (Akıl yürütme, 16) ve 0.8B (Akıl yürütme, 9). Bunlar, bu ayın başında piyasaya sürülen daha büyük 397B, 27B, 122B A10B ve 35B A3B modellerini tamamlayacak. Tüm modeller Apache 2.0 lisanslıdır, 262K bağlamını destekler, yerel görme desteği içerir ve Qwen3.5 ailesinin geri kalanı gibi birleşik düşünme/düşünme dışı hibrit yaklaşımı kullanır
Akıl yürütme varyantları için temel kıyaslama sonuçları:
➤ 9B ve 4B, kendi boyut sınıflarında en akıllı modellerdir ve 10B parametreleri altındaki diğer tüm modellerin önündedir. Qwen3.5 9B (32), 10B'nin altındaki en yakın modellerin yaklaşık iki katı puan alıyor: Falcon-H1R-7B (16) ve NVIDIA Nemotron Nano 9B V2 (Reasoning, 15). Qwen3.5 4B (27), parametrelerin yaklaşık yarısına sahip olmasına rağmen bunların hepsini geride bırakıyor. Dört küçük Qwen3.5 modelinin tamamı, Zeka vs. Toplam Parametreler tablosunda Pareto sınırında yer alıyor
➤ Qwen3.5 nesli, tüm 10B altındaki model boyutlarında Qwen3'e göre maddi zeka artışını temsil eder ve daha yüksek toplam parametre sayılarında daha büyük kazançlar elde eder. Akıl yürütme varyantlarını karşılaştırırsak: Qwen3.5 9B (32), Qwen3 VL 8B'nin (17) 15 puan önünde, 4B (27) Qwen3 4B 2507 (18) üzerinde 9 puan kazanır, 2B (16) Qwen3 1.7B'nin (tahmini 13) 3 puan önündedir ve 0.8B (9) Qwen3 0.6B (6.5) üzerinde 2.5 puan kazanır.
➤ Dört modelin tamamı Intelligence Index'i çalıştırmak için 230-390M çıkış tokenları kullanır; bu, hem büyük Qwen3.5 kardeşlerinden hem de Qwen3 seleflerinden önemli ölçüde fazladır. Qwen3.5 2B ~390M çıkış jetonları kullandı, 4B ~240M, 0.8B ~230M ve 9B ~260M kullandı. Bağlam için, çok daha büyük Qwen3.5 27B 98M kullanmış, 397B amiral gemisi ise 86M kullanmıştır. Bu token sayıları da çoğu öncü modeli aşıyor: Gemini 3.1 Pro Preview (57M), GPT-5.2 (xhigh, 130M) ve GLM-5 Reasoning (109M)
➤ AA-Her Şeyi Bilme görece bir zayıflıktır; 4B ve 9B için halüsinasyon oranları %80-82 arasındadır. Qwen3.5 4B puanı AA-Omniscience'da -57 puan aldı, halüsinasyon oranı %80 ve doğruluk oranı %12,8. Qwen3.5 9B -56 puan, %82 halüsinasyon ve %14.7 isabet puanı aldı. Bunlar, Qwen3 seleflerinden (Qwen3 4B 2507: -61, %84 halüsinasyon, %12,7 doğruluk) biraz daha iyidir ve bu gelişme esas olarak daha yüksek doğruluk yerine daha düşük halüsinasyon oranlarından kaynaklanmaktadır.
➤ Qwen3.5 sub-10B modelleri, daha önce bulunamayan ölçekte yüksek zeka ile yerel görüşü birleştirir. MMMU-Pro (multimodal akıl yürütme) alanında, Qwen3.5 9B %69,2, 4B %65,4 puan alarak Qwen3 VL 8B (%56,6), Qwen3 VL 4B (%52,0) ve Ministral 3 8B (%46,0) önünde yer alır. Qwen3.5 0.8B %25.8 puan alıyor ki bu, 1B'nin altında bir model için dikkat çekicidir
Diğer bilgiler:
➤ Bağlam penceresi: 262K token
➤ Lisans: Apache 2.0
➤ Kuantizasyon: Yerel ağırlıklar BF16'dır. Alibaba, bu küçük modeller için birinci parti GPTQ-Int4 kuantizasyonlarını piyasaya sürmedi, ancak daha önce piyasaya sürülen Qwen3.5 ailesindeki daha büyük modeller için (27B, 35B-A3B, 122B-A10B, 397B-A17B) bu kuantizasyonlar yayımlamıştır. 4-bit quantizasyonda dört modelin tamamı tüketici donanımında erişilebilir
➤ Erişilebilirlik: Yayın sırasında bu modelleri barındıran birinci veya üçüncü taraf sunucusuz API'ler yoktur

Qwen3.5 nesli, Qwen3'e göre küçük model zekasında bir basamak değişimidir. 9B, Qwen3 VL 8B'ye (17'den 32'ye) 15 puan kazanıyor, 4B Qwen3 4B 2507'ye (18'den 27'ye) 9 puan, 2B Qwen3 1.7B'ye (13'e 16'ya) 3 puan kazanıyor ve 0.8B Qwen3 0.6B'ye (6.5'e 9) 2.5 puan kazanıyor.

Zeka artışları, rakitlere kıyasla yüksek token kullanımı karşısında gerçekleşiyor. 10B altı dört Qwen3.5 modelinin tamamı Intelligence Index'i çalıştırmak için 230M+ çıkış tokenları kullanır - bu, çoğu frontier modelinden ve Qwen3 seleflerinden önemli ölçüde daha yüksektir

Qwen3.5 9B ve 4B modelleri, 15B parametreleri altında en akıllı multimodal modellerdir. MMMU-Pro'da, Qwen3.5 9B (%69) ve 4B (%65) tüm 15B altı modellerde lider konumdadır

Tüm 4 model için bireysel sonuçların dağılımı

Qwen3.5 ailesini diğer önde gelen modellerle karşılaştırın:
8,55K
En İyiler
Sıralama
Takip Listesi
