Robotit voisivat oppia monimutkaisia taitoja pelkästään katsomalla ihmisvideoita. Tsinghuan, MIT:n ja Astribotin tutkijat esittelevät CLAPia. Heidän uusi menetelmänsä yhdistää videokehykset robottien liikedataan, luoden yhteisen "toimintasanakirjan", joka muuntaa ihmisen toiminnot suoritettaviksi robottikomennoiksi. Se päihittää olemassa olevat mallit taitojen siirtämisessä ihmisvideoista robotteihin, mahdollistaen paremman opetuksen seuraamisen ja tarkan manipuloinnin. CLAP: Kontrastiivisen latentin toiminnan esikoulutus näkö-kieli-toimintamallien oppimiseen ihmisvideoista Artikkeli: Projekti: Raporttimme: 📬 #PapersAccepted kirjoittanut Jiqizhixin