Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Roboti by se mohli naučit složité dovednosti jen sledováním lidských videí.
Výzkumníci z Tsinghua, MIT a Astribotu představují CLAP.
Jejich nová metoda slaďuje video snímky s daty pohybu robotů a vytváří sdílený "slovník akcí", který převádí lidské akce na spustitelné robotické příkazy.
Překonává stávající modely v přenosu dovedností z lidských videí na roboty, což umožňuje lepší sledování instrukcí a přesnou manipulaci.
CLAP: Kontrastivní latentní akční předtrénování pro učení modelů vidění-jazyka-akce z lidských videí
Článek:
Projekt:
Naše zpráva:
📬 #PapersAccepted od Jiqizhixina

Top
Hodnocení
Oblíbené
