E se pudéssemos ensinar a IA a gerar movimento humano tão bem quanto gera vídeos? Pesquisadores da NTU, SenseTime, Tsinghua, CUHK e NVIDIA apresentam o ViMoGen. Eles construíram um novo e enorme conjunto de dados e um modelo de difusão que transfere conhecimento da geração avançada de vídeo para a criação em movimento. O resultado? Ele supera significativamente os métodos existentes em qualidade de movimento, precisão nos prompts e generalização para novos cenários. A Busca pela Geração de Movimento Generalizável: Dados, Modelos e Avaliação Papel: Projeto: Nosso relatório: 📬 #PapersAccepted por Jiqizhixin