🚨 IL SISTEMA DI GUIDA AUTONOMA ALPAMAYO È STATO TESTATO OGGI DAL CEO DI NVIDIA JENSEN HUANG 🔥 Ecco un riepilogo di tutto ciò che devi sapere sul test: Durante un test di guida nel mondo reale a San Francisco, il CEO di NVIDIA Jensen Huang e un collega ingegnere hanno dimostrato il sistema di guida autonoma Alpamayo, evidenziando la sua unica architettura di "fusione". Il sistema combina una rete neurale end-to-end (E2E) con uno stack classico progettato dall'uomo. Questo approccio ibrido è progettato per fornire capacità di guida "soprahumana" mantenendo un guardrail di sicurezza basato su regole e tracciabile che impedisce all'auto di eseguire manovre "fuori distribuzione" o pericolose. Il modello E2E, che Huang ha notato guida in modo sorprendentemente "umano" e aggraziato, è in grado di ragionamenti complessi e di generalizzare da un enorme dataset di guida umana. Durante il test, il veicolo ha navigato con successo in interscambi autostradali complicati, gestito occlusioni ad alta velocità e eseguito manovre di "spinta" intorno a veicoli parcheggiati in doppia fila e coni di costruzione. Gli sviluppatori hanno sottolineato che la velocità di iterazione del modello E2E è incredibilmente alta, con circa sette nuove versioni del modello generate ogni giorno. Sicurezza e validazione sono stati temi centrali del test. Il team utilizza un "albero di scenari funzionali" e strumenti di AI per curare dati per specifiche condizioni stradali, insieme a un sistema di valutazione a ciclo chiuso (CLU) che esegue 2 milioni di test al giorno in un mondo ricostruito pixel-perfect. Questo rigoroso testing ha aiutato il sistema a raggiungere il punteggio più alto negli standard NCAP 2025, che i relatori hanno notato essere sempre più rigorosi. L'hardware che supporta questo software include un computer personalizzato, funzionalmente sicuro, alimentato da 10 telecamere, 5 radar e 12 sensori ad ultrasuoni. Guardando al futuro, il team sta integrando un "sistema di ragionamento" e "Cosmos" (un modello generativo del mondo) per gestire casi rari di "long tail" cambiando fattori ambientali come il meteo e l'illuminazione in simulazione. Huang ha concluso che questa combinazione di un modello E2E simile a quello umano e di uno stack di sicurezza rigido rende la tecnologia pronta per scalare da L2++ a robotaxi L4. Fonte video: canale YouTube di NVIDIA