Calcolo quantistico, mancano tre anni al traguardo
“Quando si discute di leadership tecnologica nell’ambito dell’hardware, la competizione è principalmente tra Stati Uniti e Cina. L’Europa, e in particolare l’Italia, difficilmente assumeranno un ruolo di guida nell’infrastruttura. Tuttavia, possiamo realmente competere nello sviluppo di software quantistico e nella creazione di applicazioni pratiche”. Alessandro La Volpe ha una visione chiara riguardo alla questione della sovranità tecnologica, un tema di grande rilevanza oggi, considerando l’ascesa della Cina e i continui attacchi all’Europa da parte del presidente statunitense Donald Trump.
Dopo una lunga carriera in Ibm – sia in Italia che all’estero – La Volpe è diventato amministratore delegato per l’Italia nel luglio del 2024.
Attualmente, tra le numerose sfide che lo attendono, c’è quella di avviare il business del quantum computing, una delle due frontiere, insieme all’intelligenza artificiale, su cui molte aziende del settore informatico si stanno confrontando.
Iniziamo a parlare del quantum computing. Qual è la situazione attuale?
“Siamo ancora in una fase pionieristica. Non si tratta di una tecnologia già ampiamente utilizzata per applicazioni commerciali di massa, ma non è nemmeno più una mera promessa teorica. La tecnologia ha fatto progressi rispetto all’impiego attuale. Ci sono due date fondamentali. La prima è il 2026: il mercato e il mondo della ricerca si aspettano che per la prima volta il quantum dimostri un vantaggio tangibile rispetto alla computazione tradizionale su problemi concreti. Non si tratta di un annuncio aziendale, ma di un’aspettativa condivisa tra gli esperti del settore”.
E la seconda data?
“È il 2029. Questa è la più significativa: è l’anno in cui ci aspettiamo sistemi fault tolerant, ovvero senza errori. Attualmente, il principale ostacolo è il rumore di fondo nel calcolo quantistico. Quando raggiungeremo un calcolo stabile e affidabile, allora potremo parlare di vera maturità commerciale”.
Qual è la situazione in Europa?
“Esistono già due centri di dati quantistici operativi basati sulla tecnologia Ibm: uno in Germania e uno nei Paesi Baschi, a San Sebastián. Non sono progetti annunciati: sono già attivi. Stiamo parlando di macchine con oltre 100–150 qubit. Questo è rilevante, poiché in Italia si sente parlare di prototipi con pochi qubit. Si tratta di ordini di grandezza completamente diversi”.
L’Italia è quindi in ritardo?
“Oggi, paradossalmente, uno dei Paesi con il maggior numero di persone connesse alla rete quantistica per attività di ricerca è l’Italia. Non ci mancano le competenze. Tuttavia, ci manca la capacità di integrarle in un sistema coeso”.
Quali vantaggi concreti offre il quantum rispetto alla computazione tradizionale?
“Il quantum non sostituirà la computazione classica. Opererà in parallelo. Tuttavia, consente di affrontare problemi che con i computer tradizionali richiederebbero tempi di calcolo irragionevoli. Penso alla simulazione molecolare per nuovi farmaci, ai materiali avanzati, alla modellazione del rischio finanziario, alla crittografia, alla meteorologia complessa. In questi settori, la quantità di calcolo necessaria è enorme. Il quantum modifica radicalmente il modo di affrontare il problema”.
Ha affermato che il 2029 sarà l’anno in cui il quantum raggiungerà una maturità commerciale. L’IA è senza dubbio più avanzata. Ma ci troviamo di fronte a un possibile scoppio di una bolla, come sostengono alcuni, o a una tecnologia solida?
“L’IA è già una realtà. Tuttavia, è importante distinguere tra l’hype e una trasformazione reale. Secondo una ricerca di McKinsey & Company, circa l’80% delle aziende intervistate lo scorso anno ha dichiarato di non aver ancora ottenuto benefici concreti dall’IA generativa. Molte imprese sono rimaste nella fase dei prototipi. La differenza la fa quindi l’approccio. Se l’IA è integrata in un disegno strategico e nei processi aziendali, allora genera valore. Se è solo una sperimentazione isolata, rimane solo rumore”.
Qual è il vero nodo per passare dalla sperimentazione all’adozione?
“I dati. Gli LLM sono stati addestrati quasi esclusivamente su dati pubblici. Tuttavia, meno dell’1% dei dati aziendali privati è stato utilizzato nell’addestramento. Se un’azienda non utilizza i propri dati per costruire modelli specifici, non potrà mai ottenere un vantaggio competitivo”.
I commenti sono chiusi.