Pe scurt, @LiquidAI_ LFM2-Audio-1.5:
- atât text, cât și audio în
- atât text, cât și ieșire audio
- 1.5B -> rulează local
- licență cu greutate deschisă
Am antrenat modelul nostru @LiquidAI_ LFM2-350M cu 1400x dincolo de "calcul optim"
> Legile de scalare Chinchilla: ~20 de jetoane per param
> LFM2-350M: ~28.000 de jetoane per param (de 1400 ori mai mult)
De ce?
Pentru că Chinchilla se referă doar la calculul de antrenament, în timp ce ne pasă de costul inferenței