Nuestro @LiquidAI_ LFM2-Audio-1.5 en pocas palabras:
- Entrada de texto y audio
- Salida de texto y audio
- 1.5B -> se ejecuta localmente
- licencia de peso abierto
Entrenamos nuestro modelo LFM2-350M @LiquidAI_ 1400 veces más allá del "cálculo óptimo"
> Leyes de escala de Chinchilla: ~20 tokens por parámetro
> LFM2-350M: ~28,000 tokens por parámetro (1400 veces más)
¿Por qué?
Porque Chinchilla solo se refiere al entrenamiento de cómputo, mientras que a nosotros nos importa el costo de inferencia