To jest szalone! Dzięki LTX 2 w ComfyUI mogłem zachować moje oryginalne ruchy kamery + zrobiło pełną synchronizację ust podczas śpiewu haha. Wszystko działało lokalnie. Zrobiłem oryginalny film w 2021 roku, kiedy Metahumans dopiero się pojawiły i pracowaliśmy w Unreal Engine 4. Ten teledysk był pewnym wynikiem moich pierwszych eksperymentów z Livelink i Control Rig w tamtym czasie. Teraz nowa wersja AI poprawiona nie jest idealna i jeszcze nie trenowałem żadnego lora dla spójności postaci. Nie miałem też już oryginalnego pliku wideo, więc pobrałem wersję z YouTube jako wejście haha. Jednak wynik kamery + mimika twarzy są naprawdę obiecujące! Zastanawiam się, jak poradziłoby sobie z bardziej złożonymi i szybkimi ujęciami.