Nasze @LiquidAI_ LFM2-Audio-1.5 w skrócie:
- zarówno tekst, jak i dźwięk w
- zarówno tekst, jak i dźwięk na wyjściu
- 1.5B -> działa lokalnie
- licencja open-weight
Wytrenujemy nasz model LFM2-350M @LiquidAI_ 1400x ponad "optymalne obliczenia"
> Zasady skalowania Chinchilla: ~20 tokenów na parametr
> LFM2-350M: ~28 000 tokenów na parametr (1400x więcej)
Dlaczego?
Ponieważ Chinchilla dotyczy tylko obliczeń treningowych, podczas gdy my dbamy o koszty wnioskowania.