Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jim Fan
Directeur de la robotique de NVIDIA et scientifique émérite. Co-responsable du laboratoire GEAR. Résoudre l’IAG physique, un moteur à la fois. Stanford Ph.D. 1er stagiaire d’OpenAI.
J'observe un mini paradoxe de Moravec dans la robotique : les gymnastes qui sont difficiles pour les humains sont beaucoup plus faciles pour les robots que les tâches "peu sexy" comme cuisiner, nettoyer et assembler. Cela crée une dissonance cognitive pour les personnes extérieures au domaine, "donc, les robots peuvent faire du parkour et du breakdance, mais pourquoi ne peuvent-ils pas s'occuper de mon chien ?" Croyez-moi, mes parents m'ont posé cette question plus souvent que vous ne le pensez ...
Le "paradoxe de Moravec des robots" crée également l'illusion que les capacités physiques de l'IA sont beaucoup plus avancées qu'elles ne le sont réellement. Je ne vise pas spécifiquement Unitree, car cela s'applique largement à toutes les démonstrations acrobatiques récentes dans l'industrie. Voici un test simple : si vous placez un mur devant le robot qui fait des flips latéraux, il va s'y heurter de plein fouet et faire un spectacle. Parce qu'il ne fait que surajuster ce mouvement de référence unique, sans aucune conscience de son environnement.
Voici pourquoi le paradoxe existe : il est beaucoup plus facile d'entraîner un "gymnaste aveugle" qu'un robot qui voit et manipule. Le premier peut être entièrement résolu en simulation et transféré sans aucune adaptation au monde réel, tandis que le second exige un rendu extrêmement réaliste, une physique de contact et une dynamique d'objets réels désordonnée - rien de tout cela ne peut être bien simulé.
Imaginez que vous puissiez entraîner des LLM non pas à partir d'Internet, mais à partir d'un jeu vidéo textuel entièrement conçu à la main. Les roboticiens ont eu de la chance. Nous vivons dans un monde où les moteurs physiques accélérés sont si bons que nous pouvons nous en sortir avec des acrobaties impressionnantes en utilisant littéralement zéro donnée réelle. Mais nous n'avons pas encore découvert le même code de triche pour la dextérité générale.
Jusqu'à ce moment-là, nous continuerons à être questionnés par nos parents confus.
318,95K
Mon critère pour l'AGI est beaucoup plus simple : une IA préparant un bon dîner chez n'importe qui pour n'importe quelle cuisine. Le Test de Turing physique est très probablement plus difficile que le Prix Nobel. Le paradoxe de Moravec continuera de nous hanter, se profilant de plus en plus grand et sombre, pour la décennie à venir.

Thomas Wolf19 juil., 16:06
Mon critère pour l'AGI est qu'une IA remporte un prix Nobel pour une nouvelle théorie qu'elle a créée.
99,02K
J'ai été un peu silencieux sur X récemment. L'année passée a été une expérience transformationnelle. Grok-4 et Kimi K2 sont incroyables, mais le monde de la robotique est un far west merveilleux. On dirait le NLP en 2018 quand GPT-1 a été publié, avec BERT et mille autres fleurs qui ont fleuri. Personne ne savait lequel deviendrait finalement ChatGPT. Les débats étaient animés. L'entropie était à son comble. Les idées étaient incroyablement amusantes.
Je crois que le GPT-1 de la robotique est déjà quelque part sur Arxiv, mais nous ne savons pas exactement lequel. Cela pourrait être des modèles du monde, RL, apprentissage à partir de vidéos humaines, sim2real, real2sim, etc. etc., ou toute combinaison de ceux-ci. Les débats sont animés. L'entropie est à son comble. Les idées sont incroyablement amusantes, au lieu de presser les derniers % sur AIME & GPQA.
La nature de la robotique complique également grandement l'espace de conception. Contrairement au monde propre des bits pour les LLMs (chaînes de texte), nous, les roboticiens, devons faire face au monde désordonné des atomes. Après tout, il y a un morceau de métal défini par logiciel dans la boucle. Les normies des LLM peuvent avoir du mal à le croire, mais jusqu'à présent, les roboticiens ne peuvent toujours pas s'accorder sur un benchmark ! Différents robots ont des enveloppes de capacité différentes - certains sont meilleurs en acrobaties tandis que d'autres excellent dans la manipulation d'objets. Certains sont destinés à un usage industriel tandis que d'autres sont pour des tâches ménagères. Le cross-embodiment n'est pas juste une nouveauté de recherche, mais une caractéristique essentielle pour un cerveau robotique universel.
J'ai parlé à des dizaines de dirigeants de C-suite de diverses entreprises de robots, anciennes et nouvelles. Certains vendent le corps entier. D'autres vendent des pièces du corps comme des mains agiles. Beaucoup d'autres vendent les pelles pour fabriquer de nouveaux corps, créer des simulations ou collecter d'énormes quantités de données. L'espace des idées commerciales est aussi sauvage que la recherche elle-même. C'est une nouvelle ruée vers l'or, comme nous n'en avons pas vu depuis la vague ChatGPT de 2022.
Le meilleur moment pour entrer est lorsque les pics de non-consensus. Nous sommes encore au début d'une courbe de perte - il y a de forts signes de vie, mais très, très loin de la convergence. Chaque étape de gradient nous emmène dans l'inconnu. Mais une chose que je sais avec certitude - il n'y a pas d'AGI sans toucher, sentir et être incarné dans le monde désordonné.
Sur une note plus personnelle - diriger un laboratoire de recherche s'accompagne d'un tout nouveau niveau de responsabilité. Donner des mises à jour directement au PDG d'une entreprise de 4 trillions de dollars est, pour le dire simplement, à la fois palpitant et totalement absorbant de mes poids d'attention. Fini le temps où je pouvais rester au courant et plonger profondément dans chaque nouvelle sur l'IA.
J'essaierai de dégager du temps pour partager davantage de mon parcours.

876,93K
Le test de Turing physique : votre maison est en désordre après un hackathon du dimanche. Le lundi soir, vous rentrez chez vous dans un salon immaculé et un dîner aux chandelles. Et vous ne pouviez pas dire si un humain ou une machine avait été là. D’une simplicité trompeuse, d’une dureté folle.
C’est la prochaine étoile polaire de l’IA. Le rêve qui m’empêche de dormir à 12 heures du matin au labo. La vision de la prochaine plate-forme informatique qui automatise des morceaux d’atomes au lieu de morceaux de bits.
Merci Sequoia de m’avoir accueilli à AI Ascent ! Vous trouverez ci-dessous l’intégralité de mon exposé sur les premiers principes pour résoudre la robotique à usage général : comment nous pensons à la stratégie de données et aux lois de mise à l’échelle. Je vous assure que ce sera 17 minutes que vous ne regretterez pas !
107,2K
Un jour, au cours de la prochaine décennie, nous aurons des robots dans chaque maison, chaque hôpital et chaque usine, effectuant tous les travaux ennuyeux et dangereux avec une dextérité surhumaine. Ce jour sera connu sous le nom de « jeudi ». Même Turing n’oserait pas rêver de notre vie dans ses rêves les plus fous.

signüll21 avr. 2025
Nous avons passé le test de Turing et personne n’en a rien à foutre. pas de défilés. Pas de gros titres en première page. juste... un haussement d’épaules décontracté. Du genre : « Oh oui, les machines sont assez intelligentes pour nous tromper maintenant. De toute façon, qu’est-ce qu’il y a pour le déjeuner ?
Ce silence vous dit tout sur le rythme auquel nous avançons.
Dans mes cours de CS, le test de Turing était traité comme le boss final. Maintenant, chaque percée est un autre putain de mardi.
101,94K
les olympiades humanoïdes en 2030 seront un véritable spectacle

Jim Fan5 févr. 2025
Nous avons RL'isé des robots humanoïdes sur Cristiano Ronaldo, LeBron James et Kobe Bryant ! Ce sont des réseaux neuronaux fonctionnant sur du matériel réel dans notre laboratoire GEAR. La plupart des démonstrations de robots que vous voyez en ligne accélèrent les vidéos. Nous *les ralentissons* réellement pour que vous puissiez apprécier les mouvements fluides.
Je suis ravi d'annoncer "ASAP", un modèle "real2sim2real" qui maîtrise des mouvements extrêmement fluides et dynamiques pour le contrôle intégral du corps humanoïde.
Nous pré-entraînons le robot en simulation d'abord, mais il existe un écart notoire "sim2real" : il est très difficile pour des équations physiques conçues à la main de correspondre à la dynamique du monde réel.
Notre solution est simple : déployez simplement une politique pré-entraînée sur du matériel réel, collectez des données et rejouez le mouvement en simulation. La relecture aura évidemment de nombreuses erreurs, mais cela fournit un signal riche pour compenser la différence physique. Utilisez un autre réseau neuronal pour apprendre le delta. En gros, nous "réparons" un moteur physique traditionnel, afin que le robot puisse vivre presque le monde réel à grande échelle sur des GPU.
L'avenir est la simulation hybride : combinez la puissance des moteurs de simulation classiques perfectionnés au fil des décennies et l'incroyable capacité des réseaux neuronaux modernes à capturer un monde chaotique.
45,82K
Nous avons RL'isé des robots humanoïdes sur Cristiano Ronaldo, LeBron James et Kobe Bryant ! Ce sont des réseaux neuronaux fonctionnant sur du matériel réel dans notre laboratoire GEAR. La plupart des démonstrations de robots que vous voyez en ligne accélèrent les vidéos. Nous *les ralentissons* réellement pour que vous puissiez apprécier les mouvements fluides.
Je suis ravi d'annoncer "ASAP", un modèle "real2sim2real" qui maîtrise des mouvements extrêmement fluides et dynamiques pour le contrôle intégral du corps humanoïde.
Nous pré-entraînons le robot en simulation d'abord, mais il existe un écart notoire "sim2real" : il est très difficile pour des équations physiques conçues à la main de correspondre à la dynamique du monde réel.
Notre solution est simple : déployez simplement une politique pré-entraînée sur du matériel réel, collectez des données et rejouez le mouvement en simulation. La relecture aura évidemment de nombreuses erreurs, mais cela fournit un signal riche pour compenser la différence physique. Utilisez un autre réseau neuronal pour apprendre le delta. En gros, nous "réparons" un moteur physique traditionnel, afin que le robot puisse vivre presque le monde réel à grande échelle sur des GPU.
L'avenir est la simulation hybride : combinez la puissance des moteurs de simulation classiques perfectionnés au fil des décennies et l'incroyable capacité des réseaux neuronaux modernes à capturer un monde chaotique.
543,12K
Qu'un *deuxième* document soit publié avec des tonnes de secrets sur le flywheel RL et un raisonnement *multimodal* de style o1 n'est pas sur ma carte de bingo aujourd'hui. Les documents de Kimi (une autre startup) et de DeepSeek ont remarquablement convergé sur des résultats similaires :
> Pas besoin de recherche d'arbre complexe comme MCTS. Il suffit de linéariser la trace de pensée et de faire de bonnes vieilles prédictions autorégressives ;
> Pas besoin de fonctions de valeur qui nécessitent une autre copie coûteuse du modèle ;
> Pas besoin de modélisation de récompense dense. Comptez autant que possible sur la vérité terrain, le résultat final.
Différences :
> DeepSeek adopte l'approche AlphaZero - purement bootstrap via RL sans input humain, c'est-à-dire "démarrage à froid". Kimi adopte l'approche AlphaGo-Master : léger SFT pour se réchauffer à travers des traces CoT conçues par des prompts.
> Les poids de DeepSeek sont sous licence MIT (leadership de pensée !) ; Kimi n'a pas encore de publication de modèle.
> Kimi montre de fortes performances multimodales (!) sur des benchmarks comme MathVista, qui nécessite une compréhension visuelle de la géométrie, des tests de QI, etc.
> Le document de Kimi contient BEAUCOUP plus de détails sur la conception du système : infrastructure RL, cluster hybride, bac à sable de code, stratégies de parallélisme ; et détails d'apprentissage : long contexte, compression CoT, curriculum, stratégie d'échantillonnage, génération de cas de test, etc.
Des lectures optimistes pour un jour férié !

300,43K
Meilleurs
Classement
Favoris
Tendance on-chain
Tendance sur X
Récents financements de premier plan
Les plus notables