Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
¡Un lanzamiento realmente impresionante de miniaturas híbridas pequeñas del equipo Qwen, como siempre!
La gente pregunta cómo se comparan en velocidad, latencia y memoria con los LFM de @liquidai para el despliegue en el dispositivo.
Aquí tienes un breve perfil sobre el Apple M3 Ultra:
> LFM2.5-1.2B es un 52% más rápido en decodificación que el Qwen3.5-0.8B.
> LFM2-700M es un 71% más rápido que Qwen3.5-0.8B en decodificación
> LFM2-2.6B tiene la misma velocidad que Qwen3.5-2B en la decodificación
> LFM2-700M utiliza un 46% menos de memoria de pico que Qwen3.5-0.8B
> LFM2-2.6B utiliza un 21% menos de memoria de pico que Qwen3.5-2B
> prerelleno de lfms con el mismo tamaño de parámetro suele ser un 12% más rápido que Qwen3.5
Diseñamos la serie LFM2 con nuestro enfoque de meta IA basado en hardware en el bucle que nos permite encontrar la arquitectura más eficiente para un procesador dado sin sacrificar calidad.
Esta prueba se realiza en Apple M3 Ultra, 512 GB de memoria unificada
Configuración:
> 512 tokens de prompt, 128 tokens de generación,
> 5 ensayos por configuración
> Framework: MLX (mlx-lm / mlx-vlm)

Populares
Ranking
Favoritas
