Unser @LiquidAI_ LFM2-Audio-1.5 in Kürze:
- sowohl Text als auch Audio hinein
- sowohl Text als auch Audio heraus
- 1,5B -> läuft lokal
- Lizenz mit offenen Gewichten
Wir haben unser @LiquidAI_ LFM2-350M Modell 1400x über "compute optimal" trainiert
> Chinchilla Skalierungsgesetze: ~20 Tokens pro Parameter
> LFM2-350M: ~28.000 Tokens pro Parameter (1400x mehr)
Warum?
Weil Chinchilla nur die Trainingsberechnung betrifft, während uns die Kosten für die Inferenz wichtig sind.