🚨 LE SYSTÈME DE CONDUITE AUTONOME ALPAMAYO A ÉTÉ TESTÉ AUJOURD'HUI PAR LE PDG DE NVIDIA, JENSEN HUANG 🔥 Voici un résumé de tout ce que vous devez savoir sur le test : Lors d'un essai en conditions réelles à San Francisco, le PDG de NVIDIA, Jensen Huang, et un collègue ingénieur ont démontré le système de conduite autonome Alpamayo, mettant en avant son architecture unique de "fusion". Le système combine un réseau neuronal de bout en bout (E2E) avec une pile classique conçue par des humains. Cette approche hybride est conçue pour fournir des capacités de conduite "surhumaines" tout en maintenant une barrière de sécurité basée sur des règles, traçable, qui empêche la voiture d'effectuer des manœuvres "hors distribution" ou dangereuses. Le modèle E2E, que Huang a noté conduire de manière remarquablement "humaine" et gracieuse, est capable de raisonnement complexe et de généralisation à partir d'un vaste ensemble de données de conduite humaine. Lors du test, le véhicule a réussi à naviguer dans des échangeurs d'autoroute délicats, à gérer des occlusions à grande vitesse et à effectuer des manœuvres de "poussée" autour de véhicules mal garés et de cônes de construction. Les développeurs ont souligné que la vitesse d'itération du modèle E2E est incroyablement élevée, avec environ sept nouvelles versions de modèle générées chaque jour. La sécurité et la validation étaient des thèmes centraux du test. L'équipe utilise un "arbre de scénarios fonctionnels" et des outils d'IA pour sélectionner des données pour des conditions routières spécifiques, ainsi qu'un système d'évaluation en boucle fermée (CLU) qui effectue 2 millions de tests quotidiens dans un monde reconstruit pixel par pixel. Ce test rigoureux a permis au système d'atteindre la note la plus élevée dans les normes NCAP 2025, que les intervenants ont notées de plus en plus rigoureuses. Le matériel soutenant ce logiciel comprend un ordinateur sur mesure, fonctionnellement sûr, alimenté par 10 caméras, 5 radars et 12 capteurs ultrasoniques. En regardant vers l'avenir, l'équipe intègre un "système de raisonnement" et "Cosmos" (un modèle de monde génératif) pour gérer des cas rares de "long tail" en modifiant des facteurs environnementaux comme la météo et l'éclairage en simulation. Huang a conclu que cette combinaison d'un modèle E2E semblable à un humain et d'une pile de sécurité rigide rend la technologie prête à évoluer de L2++ à L4 robotaxis. Source vidéo : chaîne YouTube de NVIDIA