Auto a guida autonoma: perché stavolta la promessa di Jensen Huang potrebbe diventare realtà
Il CEO di Nvidia Jensen Huang al CES di Las Vegas, 2026
«L’auto del futuro deve possedere capacità eccezionali». Era gennaio 2016, e ci trovavamo al CES di Las Vegas: in una piccola sala del casinò MGM Grand, Jensen Huang, CEO di Nvidia, partecipò a un incontro privato con i giornalisti, condividendo con noi la sua visione per il futuro della guida autonoma. Il clima di ottimismo che pervadeva il settore automotive in quel periodo ci fece percepire quel futuro come imminente, quasi palpabile. Avanzando al presente: esattamente dieci anni dopo, Huang ritorna a Las Vegas, accolto ogni anno in stadi strapieni come una rockstar, per presentare Alpamayo 1, una nuova serie di modelli di intelligenza artificiale open-source «che introducono il ragionamento nei veicoli autonomi, permettendo loro di considerare scenari inusuali, guidare in sicurezza in ambienti complessi e spiegare le proprie scelte di guida».
Ci risiamo: dopo un decennio durante il quale quelle “capacità eccezionali” menzionate dal CEO di Nvidia non si sono ancora concretizzate, Huang torna a esporsi con maggiore determinazione: «La nostra visione – ha dichiarato qualche giorno fa dal palco dell’Hotel Fontainebleau – è che un giorno ogni singola auto e ogni singolo camion saranno autonomi, e stiamo lavorando verso quel futuro».
Desideriamo crederci, considerando che nel frattempo le nostre automobili sono effettivamente diventate più sicure grazie ai sistemi di guida assistita, ma sorge una domanda inevitabile: in questi quindici anni, cosa ha ostacolato – o perlomeno rallentato – quella che potrebbe essere la rivoluzione più attesa del settore automotive? E perché ora dovrebbe essere diverso? Procediamo con ordine.
Il CEO di Nvidia Jensen Huang al CES di Las Vegas, 2016 (Foto Bruno Ruffilli)
Lo stato dell’arte
Per rispondere, è fondamentale partire dalla nostra attuale posizione: nella guida autonoma si identificano 5 livelli, dove il livello 1 rappresenta una forma iniziale di supporto al guidatore tramite sistemi elettronici di assistenza alla guida (ADAS), mentre il livello 5 descrive un veicolo senza conducente capace di operare in qualsiasi situazione e ovunque. «Oggi, tutti stanno sviluppando il livello 2 e 2+, mentre il Livello 3, che alcune aziende hanno introdotto, è ancora un po’ un ‘giocattolo’», chiarisce Alberto Broggi, pioniere italiano della guida autonoma, professore di ingegneria informatica e attuale General Manager di Vislab, uno spin-off dell’università di Parma specializzato nello sviluppo di sistemi per la guida autonoma, acquisito nel 2015 dall’americana Ambarella. Dal CES di Las Vegas, dove è presente anche lui per presentare i risultati più recenti della sua azienda, Broggi rivela che il livello 3, quello in cui finalmente il controllo del veicolo dovrebbe passare all’intelligenza artificiale, «è ancora molto limitato: funziona solo con sole splendente, con poco traffico, su strade specifiche e fino a 90 km/h; lo acquisti per mostrarlo agli amici – scherza – non per un uso reale. Migliorerà e arriveremo sicuramente al Livello 4, ma ci vorrà ancora molto tempo», conclude.
In sostanza, se escludiamo servizi di robotaxi come Waymo di Google e le alternative cinesi disponibili in alcune grandi città del mondo, il controverso sistema Tesla Full-Self-Driving (che avrebbe dovuto arrivare in Italia nel 2025 ma non è mai stato visto) e la sperimentazione di Mercedes-Benz (che collabora con Nvidia da 4 anni), la guida autonoma è rimasta ferma per anni al Livello 2, dove i Sistemi di Assistenza Avanzata al Guidatore (ADAS) gestiscono freni, acceleratore e in parte anche lo sterzo, con l’obiettivo di mantenere il veicolo al centro della corsia. E dove il conducente è sempre al comando con le mani sul volante.
La dura realtà
Certo, gli ADAS salvaguardano vite ogni giorno, ma è innegabile che siamo distanti dalle promesse fatte forse con eccessiva leggerezza a metà degli anni ‘10 da costruttori e grandi aziende tecnologiche. Perché? Le motivazioni sono molteplici: in parte, sicuramente perché la tecnologia non era matura come si raccontava, e mancavano diversi elementi, dai sistemi di AI sufficientemente avanzati per gestire le infinite variabili della guida su strada alla potenza di calcolo necessaria per farli operare localmente (cioè sulle singole auto), fino al numero insufficiente di professionisti, esperti e scienziati che avrebbero dovuto sviluppare i sistemi di guida (e in alcuni casi monitorarne il funzionamento da remoto).
Inoltre, esiste anche un’interessante questione culturale: sebbene ogni anno 1,2 milioni di persone perdano la vita sulle strade (dati OMS), e benché i sistemi di guida autonoma sulla carta possano ridurre drasticamente queste cifre allarmanti, principalmente dovute a errori umani, l’opinione pubblica sembra più disposta ad accettare la situazione attuale piuttosto che un singolo errore letale di una macchina. È sufficiente pensare al clamore suscitato nel 2018 dalla morte di Elaine Herzberg, la prima persona nella storia a morire investita da un veicolo a guida autonoma, un Uber il cui conducente, Rafaela Vasquez, era impiegata nella supervisione del sistema ma che purtroppo si distrasse.
Tra gli ostacoli che la guida autonoma ha dovuto affrontare vi è stata anche l’epidemia di Covid-19, che ha bloccato completamente sia la produzione che la vendita e la circolazione di automobili in mezzo mondo, così come la produzione di chip, ormai essenziali per il loro funzionamento. E forse alcuni ricorderanno che, durante i mesi di “ripartenza” dell’industria automotive, la crisi dei chip rese difficile persino dotare le auto di prese USB per la ricarica del telefono, figuriamoci dei sistemi di guida avanzata.
In aggiunta, c’è la questione legale, molto complessa e ancora soggetta a dibattiti infiniti: fino al livello 2, il conducente ha il pieno controllo e quindi «la responsabilità ricade sempre su chi si trova dietro al volante – ricorda Broggi – ma quando si passa al livello 3, la responsabilità deve essere almeno parzialmente condivisa con il costruttore del veicolo o con il fornitore della tecnologia. Questo spiega perché l’industria abbia scelto di agire con molta cautela».
Infine, nel corso degli anni, un problema non trascurabile è stato rappresentato anche dai costi: per funzionare, i sistemi di guida autonoma necessitano di diversi tipi di sensori, dalle telecamere ad alta risoluzione ai radar e ai lidar, sistemi avanzati di telerilevamento che utilizzano tecnologia laser per calcolare la distanza di un oggetto. È quindi necessario un cervello hardware sufficientemente potente per elaborare in tempo reale l’enorme quantità di dati che tali sensori raccolgono e prendere decisioni immediate basate su di essi. Tutto ciò ha un costo, e inoltre dovrebbe includere sistemi anche “ridondanti”, con almeno un “doppione” per ogni componente importante del sistema pronto a intervenire in caso di guasto del sistema principale. Una via economicamente insostenibile, soprattutto per un’automobile destinata all’uso privato.
Qualcosa è cambiato
<p fino a qui molte delle motivazioni che hanno rallentato (o persino interrotto) non tanto l’evoluzione tecnologica, quanto sicuramente l'arrivo della guida autonoma sulle nostre strade. huang però continua crederci e – come abbiamo detto dieci anni dopo torna parlarne las vegas lanciando alpamayo r1, il suo nuovo modello vla (vision-language-action) aperto dotato di capacità ragionamento per la autonoma. l'appello all'industria automotive tutti i protagonisti desiderano sviluppare con le soluzioni nvidia è evidente, giunge in un momento cui l’azienda guidata da jensen ha fatto enormi progressi sia dal punto vista hardware software, insieme ingenti capitali accumulati grazie al successo sue gpu su opera praticamente quasi tutta l’ai generativa esistente.
Non è più il 2016, insomma, ma neanche il 2020 o il 2021, perché nel frattempo l’IA ha appreso a “ragionare”: Alpamayo 1 è un modello VLA (vision-language-action) da 10 miliardi di parametri che utilizza la chain-of-thought (“catena di pensiero”) e il ragionamento per pensare in modo più simile a un essere umano e quindi affrontare situazioni più complesse — come l’attraversamento di un incrocio affollato e con il semaforo guasto — anche se il sistema non è stato addestrato precedentemente a farlo. Proprio come i LLM multimodali più sofisticati che utilizziamo oggi, Alpamayo scompone i problemi in vari passaggi e, successivamente, non si limita a raccogliere un input dai sensori e attivare di conseguenza volante o freni, ma riflette su quale azione eseguire, selezionando il percorso più sicuro e, infine, comunica al conducente ciò che intende fare, fornendo motivazioni per le sue scelte. Sulla carta, sembra quasi fantascienza: quindi, finalmente ci siamo? È ancora Broggi a invitarci alla cautela e al contempo a incoraggiarci: «Ci sono molte persone che fanno grandi annunci per creare l’effetto ‘wow’, quindi bisogna fare un po’ di attenzione – suggerisce – ma è vero: l’utilizzo dei VLM è la vera grande novità dell’ultimo anno. Noi lo abbiamo dimostrato già l’anno scorso sempre durante il CES con il nostro VLM che opera sul nostro chip insieme allo stack di guida autonoma. Lo stack tradizionale fornisce informazioni fisiche come la presenza di un ostacolo o la larghezza di una corsia, ma non interpreta la scena – chiarisce Broggi – il VLM, al contrario, offre un’interpretazione di contesto: comprende se l’auto ferma davanti a te è un corriere che sta consegnando, un’auto in panne o qualcuno in attesa al semaforo. Questo gli consente di decidere se superare o attendere, risolvendo situazioni che fino ad ora avrebbero portato un’auto autonoma a bloccarsi». In sintesi, potrebbe davvero essere la volta buona.