Et si nous pouvions apprendre à l'IA à générer des mouvements humains aussi bien qu'elle génère des vidéos ? Des chercheurs de NTU, SenseTime, Tsinghua, CUHK et NVIDIA présentent ViMoGen. Ils ont construit un nouvel ensemble de données massif et un modèle de diffusion qui transfère les connaissances de la génération vidéo avancée à la création de mouvements. Le résultat ? Il surpasse significativement les méthodes existantes en termes de qualité de mouvement, de précision par rapport aux instructions et de généralisation à de nouveaux scénarios. La quête pour une génération de mouvement généralisable : données, modèle et évaluation Article : Projet : Notre rapport : 📬 #PapersAccepted par Jiqizhixin