Nvidia sfida Tesla con la sua guida autonoma. Huang: “Automotive primo mercato fisico dell’IA”
LAS VEGAS – “Riteniamo che un giorno un miliardo di auto in circolazione saranno veicoli autonomi. Potreste scegliere di noleggiare un robotaxi o possederne uno, consentendogli di guidarsi autonomamente. In alternativa, potreste optare per mettervi voi stessi al volante. In ogni caso, ogni automobile avrà capacità di guida autonoma. Ogni veicolo sarà alimentato da intelligenza artificiale.”
Dal palco del CES di Las Vegas, il CEO Jensen Huang ha comunicato che il primo veicolo autonomo di Nvidia sarà sulle strade americane nel primo trimestre del 2026. Nel secondo trimestre, arriverà in Europa. E entro la fine dell’anno sarà disponibile in Asia.
“Non ho alcun dubbio: questa diventerà una delle più grandi industrie della robotica a livello globale,” ha dichiarato il CEO di Nvidia, evidenziando come l’azienda, fondata nel 1993, sia pronta a passare dalla fornitura di chip per intelligenza artificiale alla gestione dell’intero ecosistema di guida.
L’annuncio ha subito catturato l’attenzione come una potenziale sfida alla leadership di Tesla nel campo della guida autonoma: la presentazione di un sistema aperto, basato su IA “che pensa e ragiona”, può essere interpretata come un tentativo di affermare un’alternativa al Full Self-Driving di Tesla.
Alpamayo: l’IA che “pensa” mentre guida
Al centro della rivoluzione proposta da Nvidia c’è Alpamayo, un modello di intelligenza artificiale sviluppato da Nvidia per i veicoli autonomi, descritto da Huang come “il primo al mondo capace di pensare e ragionare”.
A differenza dei sistemi attualmente più diffusi, Alpamayo è addestrato in un modo end-to-end: in sostanza, osserva ciò che vede attraverso la telecamera e traduce direttamente queste immagini nei comandi che muovono il veicolo, senza passaggi intermedi o moduli separati.
La vera innovazione, comunque, è nella capacità di ragionamento del modello. Alpamayo non si limita a sterzare o frenare sulla base di calcoli probabilistici: interagisce con il conducente spiegando le proprie intenzioni.
Huang ha affermato che il sistema “comunica quale azione intende intraprendere, le motivazioni alla base di tale scelta e, naturalmente, la traiettoria”. Il CEO di Nvidia ha annunciato che Alpamayo è un modello open source: l’intero settore automobilistico potrà trarre vantaggio da un lavoro che ha coinvolto migliaia di ingegneri NVIDIA.
La partnership con Mercedes-Benz e il primato della sicurezza
Il primo partner a portare Alpamayo su strada sarà Mercedes-Benz, con cui NVIDIA collabora strettamente da cinque anni.
Il modello di punta, la nuova Mercedes-Benz CLA, è già in produzione e, secondo quanto riferito da Huang, ha ottenuto un riconoscimento storico: è stata valutata da NCAP come l’auto più sicura del mondo.
Huang ha descritto questo traguardo come il risultato di uno sforzo ingegneristico senza precedenti: “È l’unico sistema di cui sono a conoscenza che ha ogni singola riga di codice, il chip, il sistema, tutto certificato per la sicurezza.”
Per accrescere il livello di sicurezza, Nvidia adotta un’architettura di controllo a due livelli. Il sistema di intelligenza artificiale più avanzato di Alpamayo opera continuamente, affiancato da un secondo software di guida autonoma basato su regole e modelli più tradizionali, concepito per essere prevedibile e stabile. Questo secondo sistema funge da supervisore: monitora le decisioni dell’IA e ne valuta l’affidabilità in tempo reale.
Quando identifica una situazione ambigua o un margine di incertezza nel comportamento dell’IA, il controllo passa immediatamente al sistema tradizionale, che applica procedure di sicurezza consolidate. In questo modo, il veicolo ha sempre una rete di protezione pronta a intervenire.
Otto anni di ricerca: dalla fisica digitale a Cosmos
La creazione di Alpamayo è il risultato di un percorso iniziato otto anni fa, basato sulla convinzione che l’IA fisica richieda molto più del semplice linguaggio su cui si focalizzano i Large Language Models, i modelli di intelligenza artificiale alla base di chatbot come Gemini, Copilot o ChatGpt.
Huang ha spiegato che, per interagire con il mondo reale, un computer deve sviluppare una comprensione intuitiva delle leggi della fisica: gravità, attrito, inerzia e continuità degli oggetti nello spazio.
Per addestrare Alpamayo a gestire la complessa “coda lunga” degli imprevisti stradali – quegli eventi rari che non possono essere catturati tutti nel mondo reale – Nvidia ha utilizzato Cosmos.
Quest’ultimo non è un modello linguistico, bensì un “modello di base del mondo”, cioè un’intelligenza artificiale addestrata a comprendere come funziona l’ambiente fisico. È stata istruita osservando enormi quantità di video e simulazioni tridimensionali, in modo da apprendere come si muovono gli oggetti, come cambiano le scene e quali conseguenze hanno le azioni nello spazio reale.
La strategia dei tre computer e i dati sintetici
<psecondo huang, il futuro della robotica si basa su un’architettura a tre computer: uno per l’addestramento, uno per l’inferenza (che opera a bordo dell’auto) e un terzo dedicato esclusivamente alla simulazione. Attraverso piattaforme come Omniverse, Nvidia trasforma il calcolo in dati.
“Attraverso la generazione di dati sintetici, vincolata dalle leggi della fisica, possiamo oggi creare in modo selettivo e mirato i dati necessari per addestrare l’intelligenza artificiale,” ha affermato Huang.
Questo consente di simulare miliardi di chilometri in ambienti virtuali perfetti, dove Cosmos genera video e scenari fisicamente plausibili necessari all’IA per apprendere a rispondere a situazioni limite e potenzialmente pericolose senza mai mettere a rischio una vita umana.
L’auto autonoma è solo l’inizio
Huang ha illustrato la filosofia costruttiva dell’azienda attraverso la metafora della “torta a cinque strati”, che rappresenta il modello per la robotica futura.
Il livello di base è l’auto stessa (il guscio e l’energia), seguito dai chip ad alte prestazioni come i processori Thor progettati specificamente per la robotica. Sopra di essi si trova l’infrastruttura di simulazione composta da Omniverse e Cosmos, che sostiene a sua volta il livello del modello IA, ovvero Alpamayo.
L’ultimo strato, il vertice della torta, è l’applicazione finale che l’utente sperimenta, come nel caso di Mercedes-Benz.
Questa architettura integrata verticalmente, ma aperta all’ecosistema, punta a trasformare ogni mezzo di trasporto in un robot intelligente, segnando un passo decisivo verso l’era dei veicoli autonomi.
Il primo trimestre del 2026, secondo Huang, segnerà l’inizio di questa nuova era: l’IA fisica porterà la potenza del ragionamento artificiale direttamente nelle mani degli automobilisti di tutto il mondo.
“La nostra visione è che un giorno ogni automobile e ogni camion saranno autonomi, e stiamo lavorando per realizzare quel futuro – ha affermato Huang – Questo costituirà il primo mercato fisico dell’intelligenza artificiale su larga scala e probabilmente si concretizzerà nei prossimi dieci anni.”