Řada Qwen3.5 udržuje téměř bezztrátovou přesnost při kvantizaci 4bitové váhy a KV cache. Pokud jde o efektivitu v dlouhém kontextu: Qwen3.5-27B podporuje délku kontextu 800K+ Qwen3.5-35B-A3B překračuje 1M kontext na spotřebitelských GPU s 32GB VRAM Qwen3.5-122B-A10B podporuje délku kontextu 1M+ na serverových GPU s 80GB VRAM Kromě toho jsme zpřístupnili model Qwen3.5-35B-A3B-Base jako open-source, abychom lépe podpořili výzkum a inovace. Nemůžeme se dočkat, co komunita postaví dál!