Lançamento realmente impressionante de miniaturas híbridas da equipe Qwen, como sempre! As pessoas estão perguntando como eles se comparam em velocidade, latência e memória aos LFMs da @liquidai para implantação no dispositivo? Aqui está um rápido perfil do Apple M3 Ultra: > LFM2.5-1.2B é 52% mais rápido em decodificação do que o Qwen3.5-0.8B. > LFM2-700M é 71% mais rápido que o Qwen3.5-0.8B na decodificação > LFM2-2.6B tem a mesma velocidade que Qwen3.5-2B na decodificação > LFM2-700M usa 46% menos memória de pico que o Qwen3.5-0.8B > LFM2-2.6B usa 21% menos memória de pico que Qwen3.5-2B > preenchimento do lfms com o mesmo tamanho de parâmetro geralmente é 12% mais rápido que o Qwen3.5 Projetamos a série LFM2 com nossa abordagem de design meta IA de hardware no loop, que nos permite descobrir a arquitetura mais eficiente para um determinado processador sem sacrificar a qualidade. Este teste é feito no Apple M3 Ultra, memória unificada de 512 GB Configuração: > 512 tokens de prompt, 128 tokens de geração, > 5 testes por configuração > Framework: MLX (mlx-lm / mlx-vlm)