Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
dus er is dit paper uit 2025 dat laat zien dat spraak-emotie modellen veel beter worden wanneer je ze dwingt om zichzelf uit te leggen.
niet alleen "de spreker is boos"
but "de spreker is boos omdat ze zeggen X / ik heb geluid Y gedetecteerd / hier is het bewijs"
het is bijna beschamend eenvoudig. je neemt de transcriptie & de grondwaarheid emotielabel, vraagt een LLM om een uitleg te genereren die het label verankert in wat er daadwerkelijk is gezegd, en gebruikt DAT als het supervisiesignaal. trainen op redeneergebaseerde doelen in plaats van blote labels verbeterde de emotieherkenning met ~20% (over IEMOCAP en MELD).
ze testen ook op gegevens buiten het domein (mandarijn TV, singlish youtube), en het redeneer model generaliseert NOG STEEDS beter dan emotion2vec+ groot, R1-AQA, en audio-reasoner, ook al was het alleen getraind op Engelse dyadische gesprekken en afleveringen van de TV-show Friends.
een classifier onthoudt een distributie, maar een redeneer model leert hoe emoties daadwerkelijk klinken.
intuitief maar toch low key wild.

Boven
Positie
Favorieten
