А що, якби ми могли навчити штучний інтелект генерувати людські рухи так само, як він генерує відео? Дослідники з NTU, SenseTime, Tsinghua, CUHK та NVIDIA представляють ViMoGen. Вони створили величезний новий набір даних і модель дифузії, яка переносить знання з передової генерації відео у створення руху. Результат? Він значно перевершує існуючі методи за якістю руху, точністю підказок і узагальненням для нових сценаріїв. Пошук узагальненої генерації руху: дані, модель і оцінка Стаття: Проєкт: Наш звіт: 📬 #PapersAccepted від Jiqizhixin