Auto a guida autonoma: perché stavolta la promessa di Jensen Huang potrebbe diventare realtà
Il CEO di Nvidia Jensen Huang al CES di Las Vegas, 2026
«L’auto del futuro deve possedere abilità straordinarie». Era gennaio 2016, e ci trovavamo al CES di Las Vegas: in una piccola sala del casinò MGM Grand, Jensen Huang, CEO di Nvidia, intervenne in un incontro privato con i giornalisti, condividendo la sua visione per il futuro della guida autonoma. Complice l’ottimismo che permeava il settore automotive in quel periodo, le sue parole lasciarono intendere che quel futuro fosse ormai a portata di mano. Avanzando velocemente nel tempo: esattamente dieci anni dopo, Huang è tornato a Las Vegas, accolto ogni anno da folle immense come una rockstar, per presentare Alpamayo 1, una nuova gamma di modelli di intelligenza artificiale open-source «che portano il ragionamento nei veicoli autonomi, permettendo loro di riflettere su situazioni inusuali, guidare in sicurezza in ambienti complessi e spiegare le proprie decisioni di guida».
Ci risiamo: dopo un decennio in cui quelle “abilità straordinarie” promesse dal CEO di Nvidia non si sono ancora materializzate, Huang torna con maggiore determinazione: «La nostra visione – ha dichiarato qualche giorno fa dal palco dell’Hotel Fontainebleau – è che un giorno ogni singola auto e ogni camion saranno autonomi, e stiamo lavorando per quel futuro».
Vogliamo crederci, considerando che nel frattempo le nostre auto sono effettivamente diventate più sicure grazie ai sistemi di guida assistita, tuttavia una domanda sorge spontanea: cosa ha impedito – o almeno rallentato – quella che potrebbe essere la rivoluzione più attesa nel settore automotive negli ultimi due lustri? E perché ora dovrebbe essere diverso? Procediamo con ordine.
Il CEO di Nvidia Jensen Huang al CES di Las Vegas, 2016 (Foto Bruno Ruffilli)
Lo stato dell’arte
Per comprendere, è necessario partire dalla situazione attuale: nella guida autonoma si distinguono 5 livelli, dove il livello 1 rappresenta una prima forma di assistenza al guidatore tramite sistemi elettronici di assistenza alla guida (ADAS), mentre il livello 5 descrive un veicolo senza conducente capace di operare ovunque e in qualsiasi condizione. «Attualmente tutti stanno lavorando sui livelli 2 e 2+, mentre il Livello 3 che alcune aziende hanno introdotto è ancora un po’ un ‘giocattolo’», spiega Alberto Broggi, pioniere italiano della guida autonoma, professore di ingegneria informatica e attuale General Manager di Vislab, spin-off dell’università di Parma specializzato nello sviluppo di sistemi per la guida autonoma, acquisito nel 2015 dall’americana Ambarella. Dal CES di Las Vegas, dove è presente anche lui per mostrare i recenti risultati della sua azienda, Broggi rivela che il livello 3, dove finalmente il controllo dell’auto dovrebbe essere trasferito all’intelligenza artificiale, «è ancora molto limitato: funziona solo con il sole, con poco traffico, su strade specifiche e fino a 90 km/h; lo acquisti per mostrarlo agli amici – scherza – non per un utilizzo reale. Migliorerà e sicuramente arriveremo al Livello 4, ma ci vorrà ancora molto tempo», conclude.
In sostanza, se si escludono servizi di robotaxi come Waymo di Google e le alternative cinesi presenti in alcune grandi città del mondo, il controverso sistema Tesla Full-Self-Driving (che doveva arrivare in Italia nel 2025 ma non si è visto) e la sperimentazione di Mercedes-Benz (che collabora con Nvidia da 4 anni), la guida autonoma è rimasta ferma per anni appunto al Livello 2, dove i Sistemi di Assistenza Avanzata al Guidatore (ADAS) gestiscono freni, acceleratore e in parte anche lo sterzo con l’obiettivo di mantenere l’auto al centro della corsia. E dove il conducente è sempre al comando con le mani sul volante.
La dura realtà
Sì, gli ADAS salvano vite ogni giorno, ma bisogna riconoscere che siamo lontani dalle promesse fatte forse con troppa leggerezza a metà degli anni ‘10 da produttori e grandi aziende tecnologiche. Perché? Le motivazioni sono molteplici: in parte, sicuramente perché la tecnologia non era matura come si sosteneva, e mancava un po’ di tutto, dai sistemi di AI sufficientemente avanzati per gestire le infinite variabili della guida su strada alla potenza di calcolo necessaria per farli funzionare in locale (cioè sulle singole auto), passando persino per la scarsità di personale, esperti e scienziati che avrebbero dovuto sviluppare i sistemi di guida (e in alcuni casi monitorarne il funzionamento da remoto).
Inoltre, esiste anche una questione culturale interessante: nonostante ogni anno 1,2 milioni di persone perdano la vita sulle strade (dati OMS), e nonostante i sistemi di guida autonoma sulla carta potrebbero ridurre drasticamente questi numeri allarmanti causati in gran parte da errori umani, l’opinione pubblica sembra più incline ad accettare lo status quo piuttosto che un singolo errore fatale di un veicolo. Basti pensare allo scandalo che suscitò nel 2018 la morte di Elaine Herzberg, la prima persona della storia a perdere la vita dopo essere stata investita da un veicolo a guida autonoma, un Uber guidato da Rafaela Vasquez, che era a bordo per supervisionare il sistema ma finì tragicamente per distrarsi.
Tra gli ostacoli che la guida autonoma ha dovuto affrontare c’è stata anche l’epidemia di Covid-19, che ha causato il blocco totale della produzione, vendita e circolazione delle auto in tutto il mondo, oltre alla carenza di chip ormai assolutamente essenziali per il loro funzionamento. E forse qualcuno ricorderà che, nei mesi di “ripartenza” dell’industria automotive, proprio la crisi dei chip rese difficile dotare le auto persino di semplici prese USB per la ricarica del telefono, figuriamoci di sistemi di guida avanzata.
In aggiunta, c’è la complicata questione legale, ancora oggetto di dibattiti senza fine: se fino al livello 2 il conducente ha il pieno controllo e quindi «la responsabilità è sempre di chi siede dietro al volante – ricorda Broggi – quando si passa al livello 3 la responsabilità deve essere almeno in parte condivisa con il costruttore dell’auto o con il provider della tecnologia. Questo spiega perché l’industria si comporti con estrema cautela».
Infine, nel corso degli anni, un problema significativo è stato rappresentato anche dai costi: per funzionare, i sistemi di guida autonoma necessitano di vari tipi di sensori, dalle telecamere ad alta risoluzione ai radar e lidar, sofisticati sistemi di telerilevamento che utilizzano tecnologia laser per calcolare la distanza di un oggetto. È quindi necessario un cervello hardware sufficientemente potente per processare in tempo reale l’ampia quantità di dati che tali sensori raccolgono e, sulla base di essi, prendere decisioni immediate. Tutte cose che comportano costi elevati e che dovrebbero avere anche sistemi “ridondanti”, cioè almeno un “doppione” per ogni componente importante del sistema pronto a entrare in funzione in caso di malfunzionamento del sistema principale. Una strada economicamente insostenibile, soprattutto per un veicolo destinato all’uso privato.
Qualcosa è cambiato
Finora, molte delle ragioni che hanno rallentato (o persino interrotto) magari non l’evoluzione tecnologica, ma di sicuro l’arrivo della guida autonoma sulle nostre strade. Huang, però, continua a crederci e – come accennato – dieci anni dopo ritorna sul tema a Las Vegas lanciando Alpamayo R1, il suo nuovo modello VLA (Vision-Language-Action) aperto e con capacità di ragionamento per la guida autonoma. Il richiamo all’industria automotive e a tutti i soggetti che desiderano sviluppare la guida autonoma con le soluzioni Nvidia è chiaro, e arriva in un momento in cui l’azienda guidata da Jensen ha fatto enormi progressi dal punto di vista hardware e software, oltre a disporre di ingenti capitali accumulati grazie al successo delle sue GPU, su cui si basa praticamente quasi tutta l’AI generativa esistente.
Non è più il 2016, insomma, ma neanche il 2020 o il 2021, perché nel frattempo l’IA ha imparato a “ragionare”: Alpamayo 1 è un modello VLA (vision-language-action) da 10 miliardi di parametri che utilizza la chain-of-thought (“catena di pensiero”) e il ragionamento per pensare in modo più simile a un essere umano, riuscendo così a risolvere situazioni più complesse — come l’attraversamento di un incrocio affollato con semaforo guasto — anche se il sistema non è stato addestrato in precedenza a farlo. Proprio come i LLM multimodali più avanzati che utilizziamo oggi, Alpamayo scompone i problemi in vari passaggi, e non si limita a raccogliere un input dai sensori e attivare il volante o i freni, ma riflette sull’azione da intraprendere, selezionando il percorso più sicuro, e infine comunica al conducente cosa intende fare, fornendo le motivazioni delle sue scelte. Sulla carta sembra quasi fantascienza: quindi, finalmente ci siamo? È ancora Broggi a invitarci alla cautela e allo stesso tempo a incoraggiarci: «Ci sono molte persone che fanno grandi annunci per creare l’effetto ‘wow’, quindi bisogna considerare il tutto con un certo scetticismo – suggerisce – ma è vero: l’utilizzo dei VLM è la vera grande novità dell’ultimo anno. Noi lo abbiamo dimostrato già l’anno scorso sempre durante il CES con il nostro VLM che gira sul nostro chip insieme allo stack di guida autonoma. Lo stack tradizionale ti fornisce informazioni fisiche come la presenza di un ostacolo o la larghezza di una corsia, ma non interpreta la scena – chiarisce Broggi – il VLM, invece, offre un’interpretazione contestuale: comprende se l’auto ferma davanti a te è un corriere che sta effettuando una consegna, un’auto in panne o qualcuno in attesa al semaforo. Questo gli consente di decidere se superare o attendere, risolvendo situazioni che in passato avrebbero portato un’auto autonoma semplicemente a bloccarsi». Insomma, potrebbe davvero essere la volta buona.