Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Roboții ar putea învăța abilități complexe doar uitându-se la videoclipuri umane.
Cercetători de la Tsinghua, MIT și Astribot prezintă CLAP.
Noua lor metodă aliniază cadrele video cu datele de mișcare ale roboților, creând un "dicționar de acțiuni" comun care traduce acțiunile umane în comenzi roboților executabile.
Depășește modelele existente în transferul abilităților de la videoclipuri umane la roboți, permițând o mai bună urmărire a instrucțiunilor și manipulare precisă.
CLAP: Preantrenament contrastiv al acțiunii latente pentru învățarea modelelor viziune-limbaj-acțiune din videoclipuri umane
Hârtie:
Proiect:
Raportul nostru:
📬 #PapersAccepted de Jiqizhixin

Limită superioară
Clasament
Favorite
