E se potessimo insegnare all'AI a generare movimenti umani così come genera video? I ricercatori di NTU, SenseTime, Tsinghua, CUHK e NVIDIA presentano ViMoGen. Hanno costruito un enorme nuovo dataset e un modello di diffusione che trasferisce conoscenze dalla generazione video avanzata alla creazione di movimenti. Il risultato? Supera significativamente i metodi esistenti in termini di qualità del movimento, accuratezza rispetto ai prompt e generalizzazione a nuovi scenari. La ricerca per una generazione di movimento generalizzabile: Dati, Modello e Valutazione Carta: Progetto: Il nostro rapporto: 📬 #PapersAccepted da Jiqizhixin