Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Jadi ada makalah tahun 2025 yang menunjukkan model emosi bicara menjadi jauh lebih baik ketika Anda memaksa mereka untuk menjelaskan diri mereka sendiri.
Bukan hanya "pembicara marah"
tetapi "pembicara marah karena mereka mengatakan X / Saya mendeteksi suara Y / inilah buktinya"
Ini hampir sangat sederhana. Anda mengambil label emosi transkrip & kebenaran dasar, meminta LLM untuk menghasilkan penjelasan yang membumikan label pada apa yang sebenarnya dikatakan, lalu gunakan ITU sebagai sinyal pengawasan. pelatihan pada target penalaran yang ditambah alih-alih label telanjang meningkatkan pengenalan emosi sebesar ~20% (di seluruh IEMOCAP dan MELD).
mereka juga menguji data di luar domain (mandarin TV, singlish youtube), dan model penalaran MASIH menggeneralisasi lebih baik daripada emotion2vec+ large, R1-AQA, dan audio-reasoner, meskipun hanya dilatih pada percakapan dyadic bahasa Inggris dan episode acara TV Friends.
Seorang pengklasifikasi menghafal distribusi, tetapi model penalaran mempelajari seperti apa perasaan yang sebenarnya.
Intuitif tapi tetap rendah hati.

Teratas
Peringkat
Favorit
