Nvidia svela la sua guida autonoma. Huang: “Automotive sarà il primo mercato fisico dell’IA”

Nvidia svela la sua guida autonoma. Huang: “Automotive sarà il primo mercato fisico dell’IA” 1

LAS VEGAS – “Siamo certi che in futuro un miliardo di automobili in circolazione sarà composto da veicoli autonomi. Potreste optare per un robotaxi, oppure possederne uno, permettendo a quest’ultimo di guidarsi autonomamente. In alternativa, avreste la possibilità di guidare voi stessi. In ogni caso, ogni automobile avrà funzionalità di guida autonoma. Ogni veicolo sarà alimentato dall’intelligenza artificiale.”

Dal palco del CES di Las Vegas, il CEO Jensen Huang ha rivelato che il primo veicolo autonomo di Nvidia sarà disponibile sulle strade statunitensi nel primo trimestre del 2026. Nel secondo trimestre, arriverà in Europa, e entro la fine dell’anno sarà presente in Asia.

“Non ho alcun dubbio: questa sarà una delle più grandi industrie della robotica a livello globale”, ha affermato il CEO di Nvidia, evidenziando come l’azienda, fondata nel 1993, sia pronta a passare dalla fornitura di chip per l’intelligenza artificiale alla gestione dell’intero ecosistema della guida.

L’annuncio ha immediatamente suscitato interesse come possibile alternativa alla leadership di Tesla nel campo della guida autonoma: la presentazione di un sistema aperto, basato su IA “che pensa e ragiona”, può essere vista come un tentativo di stabilire uno standard alternativo al Full Self-Driving di Tesla.

Alpamayo: l’IA che “pensa” mentre guida

Al centro della rivoluzione concepita da Nvidia si trova Alpamayo, un modello di intelligenza artificiale sviluppato da Nvidia per veicoli autonomi e descritto da Huang come “il primo al mondo capace di pensare e ragionare”.

Contrariamente ai sistemi attualmente dominanti, Alpamayo è addestrato in modo end-to-end: in sostanza osserva ciò che percepisce attraverso la telecamera e traduce direttamente queste immagini in comandi che muovono il veicolo, senza passaggi intermedi o moduli separati.

Tuttavia, la vera innovazione risiede nella capacità di ragionamento del modello. Alpamayo non si limita a sterzare o frenare in base a calcoli probabilistici: interagisce con il conducente spiegando le proprie intenzioni.

Huang ha affermato che il sistema “comunica quale azione intende intraprendere, le motivazioni alla base di tale azione e, naturalmente, la traiettoria”. Il CEO di Nvidia ha dichiarato che Alpamayo è un modello open source: l’intero settore automobilistico potrà trarre vantaggio da un lavoro che ha coinvolto migliaia di ingegneri NVIDIA.

La partnership con Mercedes-Benz e il primato della sicurezza

Il primo partner a implementare Alpamayo sarà Mercedes-Benz, con la quale NVIDIA collabora strettamente da cinque anni.

Il modello di punta, la nuova Mercedes-Benz CLA, è già in produzione e, secondo quanto riferito da Huang, ha già ricevuto un riconoscimento storico: è stata classificata da NCAP come l’auto più sicura del mondo.

Huang ha descritto questo risultato come il culmine di uno sforzo ingegneristico senza precedenti: “È l’unico sistema di cui sono a conoscenza che ha ogni singola riga di codice, il chip, il sistema, tutto certificato per la sicurezza”.

Per incrementare il livello di sicurezza, Nvidia adotta un’architettura di controllo a due livelli. Il sistema di intelligenza artificiale più avanzato di Alpamayo opera continuamente, supportato da un secondo software di guida autonoma basato su regole e modelli più tradizionali, progettato per essere prevedibile e stabile. Questo secondo sistema funge da supervisore: osserva le decisioni dell’IA e ne valuta l’affidabilità in tempo reale.

Quando rileva una situazione ambigua o un margine di incertezza nel comportamento dell’IA, il controllo passa immediatamente al sistema tradizionale, che applica procedure di sicurezza consolidate. In questo modo, il veicolo dispone sempre di una rete di protezione pronta a intervenire.

Otto anni di ricerca: dalla fisica digitale a Cosmos

La creazione di Alpamayo è il risultato di un percorso iniziato otto anni fa, fondato sulla convinzione che l’IA fisica richieda molto di più del semplice linguaggio su cui si concentrano i Large Language Models, i modelli di intelligenza artificiale alla base di chatbot come Gemini, Copilot o .

Huang ha spiegato che, per interagire con il mondo reale, un computer deve sviluppare una comprensione intuitiva delle leggi della fisica: gravità, attrito, inerzia e continuità degli oggetti nello spazio.

Per addestrare Alpamayo a gestire la complessa “coda lunga” degli imprevisti stradali – quegli scenari rari che non possono essere tutti catturati nel mondo reale – Nvidia ha utilizzato Cosmos.

Quest’ultimo non è un modello linguistico, ma un “modello di base del mondo”, cioè un’intelligenza artificiale formata per comprendere come funziona l’ambiente fisico. È stata addestrata osservando enormi quantità di video e simulazioni tridimensionali, in modo da apprendere come si muovono gli oggetti, come cambiano le scene e quali conseguenze hanno le azioni nello spazio reale.

La strategia dei tre computer e i dati sintetici

<psecondo huang, il futuro della robotica si basa su un’architettura a tre computer: uno per l’addestramento, uno per l’inferenza (che opera a bordo dell’auto) e un terzo dedicato completamente alla simulazione. Grazie a piattaforme come Omniverse, Nvidia trasforma il calcolo in dati.

“Utilizzando la generazione di dati sintetici basata e vincolata dalle leggi della fisica, possiamo oggi creare in modo selettivo e mirato i dati necessari per addestrare l’intelligenza artificiale”, ha dichiarato Huang.

Questo consente di simulare miliardi di chilometri in ambienti virtuali ideali, dove Cosmos produce video e scenari fisicamente plausibili che servono all’IA per imparare a reagire a situazioni limite e potenzialmente pericolose senza mai compromettere la vita umana.

L’auto autonoma è solo l’inizio

Huang ha illustrato la filosofia costruttiva dell’azienda attraverso la metafora della “torta a cinque strati”, che rappresenta il modello per tutta la robotica futura.

Lo strato di base è l’auto stessa (il guscio e l’energia), seguito dai chip ad alte prestazioni come i processori Thor progettati specificamente per la robotica. Sopra di essi si trova l’infrastruttura di simulazione composta da Omniverse e Cosmos, che supporta a sua volta lo strato del modello IA, ovvero Alpamayo.

L’ultimo strato, il vertice della torta, è l’applicazione finale che l’utente sperimenta, come nel caso di Mercedes-Benz.

Questa architettura integrata verticalmente, ma aperta all’ecosistema, mira a trasformare ogni mezzo di trasporto in un robot intelligente, segnando il punto di flesso definitivo verso l’era dei veicoli autonomi.

Il primo trimestre del 2026, secondo Huang, segnerà l’inizio di questa nuova era: l’IA fisica porterà la potenza del ragionamento artificiale direttamente tra le mani degli automobilisti in tutto il mondo.

“La nostra visione è che un giorno ogni automobile e ogni camion saranno autonomi, e stiamo lavorando per raggiungere quel futuro – ha dichiarato Huang – Questo sarà il primo mercato fisico dell’intelligenza artificiale su larga scala e con ogni probabilità si concretizzerà nei prossimi dieci anni”.

Lascia una risposta

L'indirizzo email non verrà pubblicato.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More