المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
يمكن للروبوتات تعلم مهارات معقدة فقط من خلال مشاهدة فيديوهات بشرية.
يقدم باحثون من تسينغهوا ومعهد ماساتشوستس للتكنولوجيا وأستريبوت برنامج CLAP.
طريقتهم الجديدة تمواث إطارات الفيديو مع بيانات حركة الروبوتات، مما ينشئ "قاموس أفعال" مشترك يترجم الأفعال البشرية إلى أوامر روبوتية قابلة للتنفيذ.
يتفوق على النماذج الحالية في نقل المهارات من الفيديوهات البشرية إلى الروبوتات، مما يتيح متابعة أفضل للتعليمات والتعامل الدقيق.
CLAP: التدريب المسبق على الفعل الكامن التبايني لتعلم نماذج الرؤية-اللغة-الحركة من فيديوهات بشرية
الورقة:
المشروع:
تقريرنا:
📬 #PapersAccepted بواسطة جيكيزيشن

الأفضل
المُتصدِّرة
التطبيقات المفضلة
