Tänk om vi kunde lära AI att generera mänskliga rörelser lika bra som den genererar videor? Forskare från NTU, SenseTime, Tsinghua, CUHK och NVIDIA presenterar ViMoGen. De byggde en massiv ny datamängd och en diffusionsmodell som överför kunskap från avancerad videogenerering till rörelseskapande. Resultatet? Den överträffar betydligt befintliga metoder när det gäller rörelsekvalitet, noggrannhet i prompts och generalisering till nya scenarier. Jakten på generaliserbar rörelsegenerering: Data, modell och utvärdering Papper: Projekt: Vår rapport: 📬 #PapersAccepted av Jiqizhixin