Er dette Yann LeCuns første artikkel etter at han forlot Meta? Den demonstrerer hvordan humanoide roboter kan etterligne handlinger fra AI-genererte videoer, som ofte er for støyende til direkte imitasjon. Systemet løfter videoen opp i 3D-nøkkelpunkter og bruker deretter en fysikkbevisst policy for å utføre bevegelsene, noe som muliggjør null-skudd-kontroll. De implementerte dette på Unitree G1 humanoid robot.