E se pudéssemos ensinar a IA a gerar movimento humano tão bem quanto gera vídeos? Pesquisadores da NTU, SenseTime, Tsinghua, CUHK e NVIDIA apresentam o ViMoGen. Eles construíram um novo conjunto de dados massivo e um modelo de difusão que transfere conhecimento da geração avançada de vídeos para a criação de movimento. O resultado? Ele supera significativamente os métodos existentes em qualidade de movimento, precisão em relação aos prompts e generalização para novos cenários. A Busca pela Geração de Movimento Generalizável: Dados, Modelo e Avaliação Artigo: Projeto: Nosso relatório: 📬 #PapersAccepted por Jiqizhixin