Singkatnya @LiquidAI_ LFM2-Audio-1.5 kami:
- teks dan audio masuk
- teks dan audio keluar
- 1,5 miliar -> berjalan secara lokal
- lisensi bobot terbuka
Kami melatih model LFM2-350M @LiquidAI_ kami 1400x melampaui "komputasi optimal"
> Hukum penskalaan Chinchilla: ~20 token per parameter
> LFM2-350M: ~28.000 token per parameter (1400x lebih banyak)
Mengapa?
Karena Chinchilla hanya menyangkut komputasi pelatihan, sementara kami peduli dengan biaya inferensi