Что если мы сможем научить ИИ генерировать человеческое движение так же, как он генерирует видео? Исследователи из NTU, SenseTime, Tsinghua, CUHK и NVIDIA представляют ViMoGen. Они создали огромный новый набор данных и диффузионную модель, которая переносит знания от продвинутой генерации видео к созданию движений. Результат? Она значительно превосходит существующие методы по качеству движения, точности к запросам и обобщению на новые сценарии. Поиск обобщаемой генерации движений: данные, модель и оценка Статья: Проект: Наш отчет: 📬 #PapersAccepted от Jiqizhixin