Ich habe diese Woche auf der CES viel darüber gehört. Die Roboter für zu Hause sind mindestens zwei Jahre entfernt. Viele sagen wahrscheinlich fünf. Ich habe mich mit @BradTempleton getroffen, der ein früheres Genie bei @waymo war. Er hat mich erneut daran erinnert, dass ich mich beim Tesla Robotaxi übernehme. Aber ich habe allen gesagt, dass mein Datum April ist und nicht Ende des Jahres, wie Elon einmal versprochen hat. Er hasst es, wenn ich über Daten spreche, und hat mir eine gute Lektion gegeben, warum niemand weiß, wann die Autonomie vollständig gelöst ist. Ich habe Daten darüber, was die Flotte macht. Deshalb bin ich immer in den Tesla-Community-Räumen. Und habe die beste Tesla-Liste hier auf X. Listen werden viel wichtiger werden. Betrachte sie als die Wahrheit. Du siehst alles. Hält dich in der Realität verankert. @GaryShapiro hat einen freundlichen Stopp eingelegt und für ein paar kostbare Momente im Flur mit mir gesprochen. Er leitet die Show und war immer ein großzügiger Mann. Ich kann mir keinen besseren Führer für die Tech-Industrie vorstellen. Und seine Show hat das autonome Zeitalter eingeläutet. Mercedes hat mir hier vor Jahren die erste Fahrt in seinem ersten KI-Fahrzeug gegeben. Gary verdient Anerkennung dafür, dass er autonome Fahrzeuge von Anfang an unterstützt hat. Aber Brad bringt mich dazu, über den Unterschied zwischen Intuition und Wissen nachzudenken. Ich überdenke alles im Wissensbereich, weil Fehler in meinem Denken gefunden wurden. Ich weiß von bevorstehenden Durchbrüchen. Aber ich muss zugeben, dass ich nicht weiß, wann das Tesla Robotaxi ohne Menschen an Bord aktiviert wird. Daten lösen alle Argumente. Elon wird gezwungen sein, langsamer zu machen, bis er genügend Daten hat. Er kann es sich nicht leisten, zu sehen, dass das System einen Fehler macht, hat Brad mir gesagt, deshalb sieht er es nicht bald ausgeliefert. Die Anwälte werden es nicht ausliefern lassen, bis es fertig ist. Die Wahrheit ist, dass jeder im Team erkennt, dass es perfekt sein muss, wenn es aktiviert wird. Oder sehr, sehr nah dran.
480EB0
480EB09. Jan., 08:38
Heute sind wir mit @rdn_nikita, Mitbegründer und CEO von @FlexionRobotics, zusammen, um über die Kluft zwischen den aktuellen robotischen Fähigkeiten und dem, was erforderlich ist, um vollständig autonome Roboter in der realen Welt einzusetzen, zu diskutieren. Nikita erklärt, wie verstärkendes Lernen und Simulationen den schnellen Fortschritt in der Robotermobilität vorangetrieben haben – und warum die Mobilität noch lange nicht "gelöst" ist. Wir tauchen in die sim2real-Kluft ein und wie das Hinzufügen visueller Eingaben Rauschen einführt und den sim-to-real-Transfer erheblich kompliziert. Wir erkunden auch die Debatte zwischen End-to-End-Modellen und modularen Ansätzen und warum die Trennung von Mobilität, Planung und Semantik heute einen pragmatischen Ansatz darstellt. Nikita führt auch das Konzept "real-to-sim" ein, das reale Daten verwendet, um Simulationsparameter für ein höheres Maß an Treue im Training zu verfeinern, diskutiert, wie verstärkendes Lernen, Imitationslernen und Teleoperationsdaten kombiniert werden, um robuste Richtlinien für sowohl vierbeinige als auch humanoide Roboter zu trainieren, und stellt Flexions hierarchischen Ansatz vor, der vortrainierte Vision-Language-Modelle (VLMs) für die hochrangige Aufgabenorchestrierung mit Vision-Language-Action (VLA)-Modellen und niedergradigen Ganzkörper-Trackern nutzt. Schließlich teilt Nikita die Hintergründe der humanoiden Roboter-Demos, seine Meinung zu verstärkendem Lernen in Simulationen im Vergleich zur realen Welt, die Nuancen der Belohnungseinstellung und bietet praktische Ratschläge für Forscher und Praktiker, die heute mit Robotik beginnen möchten. 🗒️ Für die vollständige Liste der Ressourcen für diese Episode besuchen Sie die Seite mit den Shownotes: 📖 KAPITEL =============================== 00:00 - Einführung 04:07 - Ist die Robotermobilität gelöst? 06:04 - Sim-to-real-Kluft 08:58 - Hinzufügen von Semantik zu Richtlinien 09:42 - Modulare vs. End-to-End-Architekturen 10:29 - Planungsmodell 12:21 - Anpassung von RL-Techniken von Vierbeinern zu Humanoiden 15:39 - Hinter den Roboterdemos 18:09 - Humanoide Roboter in Wohnumgebungen 22:03 - Trainingsansatz 23:56 - VLA-Modelle 27:59 - Schließen der sim-to-real-Kluft 32:55 - Aufgabenorchestrierung mit VLMs 36:38 - Werkzeugnutzung 38:10 - Modellhierarchie 43:37 - Simulator versus Simulationsumgebung 44:57 - Kombination von Imitationslernen und verstärkendem Lernen 46:42 - RL in der realen Welt versus RL in Simulationen 52:58 - Belohnungseinstellung und Wertfunktionen in der Robotik 56:38 - Vorhersagen 1:00:10 - Humanoide, Vierbeiner und Räderplattformen 1:02:45 - Ratschläge, empfohlene Roboter-Kits und Community pla
Lustig, Omar getroffen zu haben, der das Whole Mars Catalog betreibt, am @waymo Stand.
Brads X-Konto ist tatsächlich @bradtem, tut mir leid dafür, Brad. Es lässt sich nicht bearbeiten. Seufz.
428