Alibaba ha lanzado 4 nuevos modelos Qwen3.5 desde 0.8B hasta 9B. El 9B (Razonamiento, 32 en el Índice de Inteligencia) es el modelo más inteligente por debajo de 10B parámetros, y el 4B (Razonamiento, 27) el más inteligente por debajo de 5B, pero ambos utilizan más de 200M de tokens de salida para ejecutar el Índice de Inteligencia @Alibaba_Qwen ha ampliado la familia Qwen3.5 con cuatro modelos densos más pequeños: el 9B (Razonamiento, 32 en el Índice de Inteligencia), 4B (Razonamiento, 27), 2B (Razonamiento, 16) y 0.8B (Razonamiento, 9). Estos complementan los modelos más grandes de 397B, 27B, 122B A10B y 35B A3B lanzados a principios de este mes. Todos los modelos tienen licencia Apache 2.0, soportan 262K de contexto, incluyen soporte nativo de visión y utilizan el mismo enfoque híbrido de pensamiento/no pensamiento unificado que el resto de la familia Qwen3.5 Resultados clave de benchmarking para las variantes de razonamiento: ➤ El 9B y el 4B son los modelos más inteligentes en sus respectivas clases de tamaño, por delante de todos los demás modelos por debajo de 10B parámetros. Qwen3.5 9B (32) puntúa aproximadamente el doble que los modelos más cercanos por debajo de 10B: Falcon-H1R-7B (16) y NVIDIA Nemotron Nano 9B V2 (Razonamiento, 15). Qwen3.5 4B (27) supera a todos estos a pesar de tener aproximadamente la mitad de los parámetros. Todos los cuatro modelos pequeños Qwen3.5 están en la frontera de Pareto del gráfico de Inteligencia vs. Total de Parámetros ➤ La generación Qwen3.5 representa un aumento material de inteligencia sobre Qwen3 en todos los tamaños de modelos por debajo de 10B, con mayores ganancias a mayores conteos de parámetros totales. Comparando variantes de razonamiento: Qwen3.5 9B (32) está 15 puntos por delante de Qwen3 VL 8B (17), el 4B (27) gana 9 puntos sobre Qwen3 4B 2507 (18), el 2B (16) está 3 puntos por delante de Qwen3 1.7B (estimado 13), y el 0.8B (9) gana 2.5 puntos sobre Qwen3 0.6B (6.5). ➤ Todos los cuatro modelos utilizan de 230 a 390M de tokens de salida para ejecutar el Índice de Inteligencia, significativamente más que tanto los hermanos más grandes de Qwen3.5 como los predecesores de Qwen3. Qwen3.5 2B utilizó ~390M de tokens de salida, 4B utilizó ~240M, 0.8B utilizó ~230M, y 9B utilizó ~260M. Para contexto, el mucho más grande Qwen3.5 27B utilizó 98M y el buque insignia de 397B utilizó 86M. Estos conteos de tokens también superan a la mayoría de los modelos de frontera: Gemini 3.1 Pro Preview (57M), GPT-5.2 (xhigh, 130M) y GLM-5 Razonamiento (109M) ➤ AA-Omnisciencia es una debilidad relativa, con tasas de alucinación del 80-82% para el 4B y el 9B. Qwen3.5 4B puntúa -57 en AA-Omnisciencia con una tasa de alucinación del 80% y una precisión del 12.8%. Qwen3.5 9B puntúa -56 con 82% de alucinación y 14.7% de precisión. Estos son marginalmente mejores que sus predecesores de Qwen3 (Qwen3 4B 2507: -61, 84% de alucinación, 12.7% de precisión), con la mejora impulsada principalmente por tasas de alucinación más bajas en lugar de mayor precisión. ➤ Los modelos Qwen3.5 por debajo de 10B combinan alta inteligencia con visión nativa a una escala previamente no disponible. En MMMU-Pro (razonamiento multimodal), Qwen3.5 9B puntúa 69.2% y 4B puntúa 65.4%, por delante de Qwen3 VL 8B (56.6%), Qwen3 VL 4B (52.0%) y Ministral 3 8B (46.0%). El Qwen3.5 0.8B puntúa 25.8%, lo cual es notable para un modelo por debajo de 1B Otra información: ➤ Ventana de contexto: 262K tokens ➤ Licencia: Apache 2.0 ➤ Cuantización: Los pesos nativos son BF16. Alibaba no ha lanzado cuantizaciones GPTQ-Int4 de primera parte para estos modelos pequeños, aunque sí lo ha hecho para los modelos más grandes de la familia Qwen3.5 lanzados anteriormente (27B, 35B-A3B, 122B-A10B, 397B-A17B). En cuantización de 4 bits, los cuatro modelos son accesibles en hardware de consumo ➤ Disponibilidad: En el momento de la publicación, no hay APIs sin servidor de primera o tercera parte que alojen estos modelos.
La generación Qwen3.5 representa un cambio significativo en la inteligencia de modelos pequeños en comparación con Qwen3. El 9B gana 15 puntos sobre Qwen3 VL 8B (17 a 32), el 4B gana 9 puntos sobre Qwen3 4B 2507 (18 a 27), el 2B gana 3 puntos sobre Qwen3 1.7B (13 a 16), y el 0.8B gana 2.5 puntos sobre Qwen3 0.6B (6.5 a 9).
Las ganancias de inteligencia vienen a costa de un alto uso de tokens en comparación con sus pares. Todos los cuatro modelos Qwen3.5 de menos de 10B utilizan más de 230M de tokens de salida para ejecutar el Índice de Inteligencia; esto es significativamente más alto que la mayoría de los modelos de frontera, así como que los predecesores de Qwen3.
Los modelos Qwen3.5 9B y 4B son los modelos multimodales más inteligentes con menos de 15B de parámetros. En MMMU-Pro, Qwen3.5 9B (69%) y 4B (65%) lideran todos los modelos de menos de 15B.
Desglose de los resultados individuales para los 4 modelos
Compara la familia Qwen3.5 con otros modelos líderes en:
9,24K