🚨 DAS ALPAMAYO AUTONOME FAHRSYSTEM WURDE HEUTE VON NVIDIA'S CEO JENSEN HUANG GETESTET 🔥 Hier ist eine Zusammenfassung von allem, was Sie über den Test wissen müssen: Während einer realen Testfahrt nach San Francisco demonstrierten NVIDIA CEO Jensen Huang und ein Ingenieurkollege das Alpamayo autonome Fahrsystem und hoben seine einzigartige "Fusion"-Architektur hervor. Das System kombiniert ein End-to-End (E2E) neuronales Netzwerk mit einem klassischen, vom Menschen entwickelten Stack. Dieser hybride Ansatz soll "übermenschliche" Fahrfähigkeiten bieten und gleichzeitig eine nachvollziehbare, regelbasierte Sicherheitsbarriere aufrechterhalten, die verhindert, dass das Auto "außerhalb der Verteilung" oder unsichere Manöver ausführt. Das E2E-Modell, das Huang bemerkte, fährt auf bemerkenswert "menschliche" und anmutige Weise und ist in der Lage, komplexe Überlegungen anzustellen und aus einem riesigen Datensatz menschlichen Fahrens zu verallgemeinern. Während des Tests navigierte das Fahrzeug erfolgreich durch knifflige Autobahnkreuzungen, bewältigte Sichtbehinderungen bei hohen Geschwindigkeiten und führte "Nudge"-Manöver um doppelt geparkte Fahrzeuge und Baustellenkegel durch. Die Entwickler betonten, dass die Iterationsgeschwindigkeit des E2E-Modells unglaublich hoch ist, mit etwa sieben neuen Modellversionen, die täglich generiert werden. Sicherheit und Validierung waren zentrale Themen des Tests. Das Team nutzt einen "funktionalen Szenarienbaum" und KI-Tools, um Daten für spezifische Straßenbedingungen zu kuratieren, zusammen mit einem geschlossenen Evaluierungssystem (CLU), das täglich 2 Millionen Tests in einer rekonstruierten, pixelgenauen Welt durchführt. Diese rigorosen Tests halfen dem System, die höchste Bewertung in den NCAP-Standards von 2025 zu erreichen, die, wie die Sprecher bemerkten, zunehmend streng werden. Die Hardware, die diese Software unterstützt, umfasst einen maßgeschneiderten, funktional sicheren Computer, der von 10 Kameras, 5 Radaren und 12 Ultraschallsensoren betrieben wird. In Zukunft integriert das Team ein "Reasoning-System" und "Cosmos" (ein generatives Weltmodell), um seltene "Long Tail"-Eckfälle zu bewältigen, indem Umweltfaktoren wie Wetter und Beleuchtung in Simulationen verändert werden. Huang schloss, dass diese Kombination aus einem menschlichen E2E-Modell und einem strengen Sicherheits-Stack die Technologie bereit macht, von L2++ auf L4-Robotaxis zu skalieren. Videoquelle: NVIDIA Youtube-Kanal