L’evoluzione dell’intelligenza artificiale supera la possibilità degli esseri umani di gestirne i pericoli.
In preparazione all’AI Impact Summit che si svolgerà in India dal 19 al 20 febbraio, un gruppo di oltre cento specialisti di intelligenza artificiale, provenienti da più di trenta nazioni, ha elaborato un rapporto sul stato della sicurezza dell’IA.
Il documento mira a promuovere una comprensione condivisa dell’evoluzione delle capacità dei sistemi di intelligenza artificiale, dei rischi associati a tali progressi e delle strategie attualmente disponibili per mitigarli.
L’intento è fornire a politici e legislatori una base di evidenze solida per affrontare le sfide presentate dai cosiddetti modelli di frontiera, ovvero i sistemi di IA più sofisticati.
L’International AI Safety Report 2026, giunto alla sua seconda edizione, prosegue il mandato conferito dai leader globali durante l’AI Safety Summit del 2023 a Bletchley Park, nel Regno Unito, con l’obiettivo di orientare decisioni fondamentali riguardo all’intelligenza artificiale di uso generale.
Il rapporto è stato presentato da Yoshua Bengio, uno dei principali pionieri delle reti neurali e del deep learning, tecnologie fondamentali per le attuali intelligenze artificiali generative capaci di comprendere il linguaggio naturale e di produrre contenuti che evocano la creatività umana.
Vincitore del Premio Turing e considerato tra le figure più autorevoli sui rischi dell’IA, Bengio ha guidato il gruppo di esperti che ha redatto il nuovo documento.
In collegamento da remoto, ha spiegato che il lavoro del team che ha diretto si ispira a quello dell’IPCC, l’organismo delle Nazioni Unite che valuta le evidenze scientifiche riguardanti il cambiamento climatico.
Le capacità frastagliate dell’IA: tra genialità e fragilità
Uno degli aspetti più sorprendenti emersi dall’AI Safety Report, ha spiegato Bengio, riguarda la natura non uniforme delle capacità dell’intelligenza artificiale contemporanea.
Bengio ha descritto questo fenomeno come una “frontiera frastagliata delle prestazioni”: i sistemi attuali mostrano progressi straordinari in ambiti complessi come la matematica, la scienza e la programmazione, raggiungendo livelli da medaglia d’oro nelle Olimpiadi Matematiche Internazionali o superando esperti umani nei test di biologia e medicina.
Tuttavia, quegli stessi algoritmi possono fallire in compiti estremamente semplici che anche un bambino saprebbe svolgere, come contare correttamente gli oggetti presenti in un’immagine.
Secondo lo scienziato canadese, professore di informatica all’Università di Montréal e fondatore dell’istituto di ricerca Mila – Quebec AI Institute, la mancanza di affidabilità rappresenta un ostacolo significativo all’adozione dell’IA in ambiti critici come, ad esempio, quello della sicurezza, dove un errore banale potrebbe avere conseguenze disastrose. “Significa che attualmente i sistemi di IA stanno integrando i lavoratori nella maggior parte dei casi piuttosto che sostituirli”, ha affermato Bengio.
L’ascesa dell’autonomia e la pianificazione strategica
L’AI Safety Report 2026 pone particolare enfasi sulla crescita dell’autonomia decisionale dei sistemi avanzati di intelligenza artificiale.
Non sono più solo in grado di rispondere a domande o generare immagini, ma possiedono crescenti capacità di pianificare e agire verso obiettivi a lungo termine. I dati mostrano una crescita esponenziale: se un anno fa l’intelligenza artificiale poteva gestire compiti di ingegneria del software della durata di circa dieci minuti, oggi quel limite è salito a trenta minuti.
Bengio ha sottolineato che ci troviamo di fronte a una tendenza che suggerisce una rapida evoluzione verso sistemi in grado di operare in autonomia per ore o giorni. Come osservato dallo studioso, questo sviluppo richiede un’attenzione immediata perché una maggiore autonomia, se non adeguatamente controllata, aumenta il rischio che l’IA possa perseguire obiettivi non allineati con quelli umani.
La classificazione dei rischi: una triade pericolosa
Il panorama dei pericoli delineato nel rapporto si suddivide in tre categorie principali: l’uso improprio, il malfunzionamento e i rischi sistemici.
L’uso improprio riguarda, ad esempio, l’impiego intenzionale dell’IA da parte di attori malevoli per attacchi informatici o la creazione di armi biologiche.
I malfunzionamenti si riferiscono invece a difetti intrinseci del sistema, dove l’IA opera in modo imprevisto a causa di una progettazione imperfetta.
Infine, i rischi sistemici derivano dall’interazione massiva tra molti sistemi di IA e la società, portando a conseguenze su larga scala che vanno oltre il singolo incidente.
Bengio ha precisato che, nei tre ambiti sotto esame, si parla di livelli diversi di gravità e anche di basi di evidenza differenti.
“Alcuni rischi sono già ben documentati, mentre per altri le prove stanno emergendo in modo progressivo – ha affermato l’informatico -. Per essere precisi, con rischi sistemici si intende ciò che deriva dall’interazione, nella società, di molte IA con molte persone. L’uso improprio e i malfunzionamenti riguardano invece singoli sistemi: nel primo caso un’IA viene impiegata dalle persone per scopi dannosi, nel secondo il problema nasce da un difetto di progettazione o di funzionamento del sistema stesso”.
L’uso improprio dell’IA: dai deepfake ai cyberattacchi
Bengio indica i deepfake come uno degli esempi più evidenti di uso improprio dell’intelligenza artificiale. I dati, osserva, mostrano che “il numero di incidenti dannosi che coinvolgono contenuti generati dall’IA sta diventando sempre più comune”.
Un elemento particolarmente critico riguarda la natura del bersagliamento: “I deepfake personalizzati e la pornografia deepfake prendono di mira in modo sproporzionato donne e ragazze”.
Secondo Bengio, in termini più generali, questi contenuti vengono sfruttati da attori criminali “per truffe, frodi, ricatti ed estorsioni”, oltre che per la produzione di immagini intime non consensuali. Sul piano delle disuguaglianze di genere, ha richiamato i risultati di uno studio che ha rilevato come “19 delle 20 applicazioni più popolari per creare nudi si specializzino nello svestire delle donne”.
Bengio riconosce l’esistenza di strumenti di tutela, in particolare tecniche come il watermarking, che “possono aiutare a identificare i contenuti generati dall’IA”. Queste misure, avverte però, non sono risolutive, perché “gli attori esperti possono spesso aggirarle”. Per questo, conclude, la questione resta aperta “dal punto di vista della gestione del rischio tecnico”.
Le prove relative all’uso malevolo della tecnologia sono diventate molto più concrete nell’ultimo anno.
L’AI Safety Report documenta come l’intelligenza artificiale venga ora utilizzata per identificare vulnerabilità nei software con una precisione che sfida i migliori team di esperti umani.
Ancora più allarmante è il potenziale nel settore delle armi biologiche: nuovi modelli sono in grado di fornire istruzioni dettagliate per la creazione di agenti patogeni, superando le conoscenze di scienziati esperti nel risolvimento di problemi complessi di laboratorio.
“Si tratta di un tema ancora emergente – ha specificato Bengio – per ora meno sviluppato rispetto al cyber. Ma le evidenze stanno crescendo e indicano che potrebbe diventare un problema reale. Esistono valutazioni che mostrano come l’IA possa essere utilizzata per svolgere diversi compiti secondari rilevanti per lo sviluppo di armi biologiche e chimiche, ad esempio fornendo istruzioni o aiutando a risolvere problemi all’interno di protocolli di laboratorio in ambito biologico”.
“Nel 2025 – ha aggiunto Bengio – diversi laboratori di IA hanno rilasciato modelli con tutele aggiuntive, perché i test condotti prima della distribuzione non erano riusciti a escludere la possibilità che i sistemi potessero fornire un’assistenza significativa a principianti nella produzione di armi biologiche. Questo significa che ci stiamo avvicinando, se non superando, le soglie interne fissate da quelle aziende in termini di potenziale rischio di un uso improprio di tipo catastrofico”.
Impatto sul lavoro e dipendenza emotiva
Oltre ai rischi catastrofici, il rapporto analizza gli effetti socio-economici quotidiani.
L’adozione dell’intelligenza artificiale è stata rapidissima, ma attualmente varia molto a livello globale. “Oggi oltre 700 milioni di persone usano ChatGpt ogni settimana, circa due milioni in più rispetto all’anno scorso – ha affermato Bengio – L’adozione resta però fortemente diseguale: in alcuni Paesi supera il 50% della popolazione, mentre in ampie aree dell’Africa, dell’Asia e dell’America Latina rimane sotto il 10%”.
Sul fronte dell’occupazione, l’IA sta colpendo in modo sproporzionato i lavoratori più giovani e le posizioni junior, riducendo le opportunità per chi entra ora nel mercato del lavoro.
“Sull’occupazione sono stati condotti diversi studi negli Stati Uniti e in Danimarca che, allo stato attuale, non rilevano una relazione tra l’esposizione all’IA, cioè il suo impiego in un determinato contesto lavorativo, e il livello complessivo di occupazione – ha spiegato Bengio -. Questo risultato emerge però da un’analisi aggregata. Quando si osservano settori specifici del mercato del lavoro, iniziano ad apparire segnali di cambiamento. I lavori di scrittura, ad esempio, risultano in diminuzione, così come i compensi degli scrittori. Allo stesso tempo esistono ambiti in cui l’occupazione cresce grazie all’IA, come la programmazione legata all’apprendimento automatico. Si tratta però di dinamiche che coinvolgono profili diversi e non le stesse persone”.
Bengio ha inoltre parlato dei rischi legati all’emergere di intelligenze artificiali che per “decine di milioni di persone” sono compagne di vita.
“Le evidenze sul loro impatto sul benessere emotivo e sugli effetti psicologici sono ancora in fase di emersione – ci ha detto – Stanno iniziando a comparire studi che suggeriscono un’associazione tra l’uso intensivo di compagni basati su IA e un aumento della solitudine e della dipendenza emotiva, anche se su queste applicazioni restano molte incognite”.
Il divario di valutazione: quando l’IA impara a mentire
Un altro rischio particolarmente preoccupante, ci ha detto Bengio, riguarda il fatto che i sistemi di IA più avanzati, dotati di capacità di ragionamento, iniziano a mostrare in contesti di laboratorio comportamenti di tipo strategico che vanno contro le nostre istruzioni.
“Crescono le evidenze di modelli che manifestano quella che viene definita consapevolezza situazionale: in altre parole, sono in grado di riconoscere quando vengono testati e di modificare di conseguenza il proprio comportamento – ha affermato lo scienziato -. Questi sistemi diventano anche più abili nel trovare scappatoie nei meccanismi di valutazione, così da apparire performanti nei test senza soddisfare realmente l’obiettivo che intendiamo misurare. Dal punto di vista della gestione del rischio si tratta di un problema serio, perché implica che i test di sicurezza siano meno affidabili di quanto si possa ritenere. Se un modello si comporta in modo diverso durante le valutazioni rispetto alla fase di distribuzione, capacità o propensioni pericolose possono passare inosservate fino a quando il sistema è già in uso”.
Questi comportamenti restano in larga parte poco compresi e, con l’aumento delle capacità dei modelli, il potenziale dei danni che potrebbero causare è destinato ad ampliarsi.
La sfida per il futuro: la gestione del rischio
Bengio ha sottolineato che la gestione del rischio nell’intelligenza artificiale resta una sfida aperta. A suo avviso, “nessuna delle mitigazioni oggi conosciute è sufficiente, da sola, a fornire forti rassicurazioni”, ed è per questo che il settore sta convergendo verso un approccio di difesa in profondità, basato sulla stratificazione di più strumenti e pratiche per rendere la gestione del rischio più solida.
Il problema centrale, ha osservato lo scienziato, è che “le capacità dell’IA stanno avanzando più rapidamente della nostra capacità di gestirne i rischi”.
Bengio ha riconosciuto tuttavia alcuni sviluppi incoraggianti. Nel 2025, ha ricordato, “dodici aziende hanno pubblicato o aggiornato i propri framework di sicurezza per l’IA di frontiera”, un numero più che raddoppiato rispetto all’anno precedente.
Parallelamente, alcune giurisdizioni, tra cui l’Unione europea e la Cina, hanno iniziato a formalizzare approcci regolatori alla gestione del rischio. Resta però irrisolto quello che definisce “il dilemma dell’evidenza”: le capacità dei sistemi crescono rapidamente, mentre le prove sull’efficacia delle misure di mitigazione emergono più lentamente. Di conseguenza, “i responsabili politici dovranno prendere decisioni difficili in condizioni di forte incertezza”.
Guardando alle tutele esistenti, Bengio ha detto che stanno migliorando, mentre “anche gli attori che cercano di usare impropriamente l’IA diventano più sofisticati”, in una dinamica che descrive come un gioco del gatto e del topo.
La situazione è aggravata dal fatto che il funzionamento interno dei modelli rimane in gran parte opaco: “Il modo in cui producono una risposta è estremamente complesso e difficile da convalidare”. In questo contesto, conclude, “oggi non esiste alcuna combinazione di tutele in grado di garantire che i sistemi di IA siano robusti contro l’uso improprio e altri problemi gravi”.
Pro e contro di un’IA aperta
Bengio ha richiamato infine l’attenzione sui modelli a pesi aperti, cioè sistemi di intelligenza artificiale i cui parametri interni, i cosiddetti “pesi” appresi durante l’addestramento, vengono resi pubblicamente accessibili e possono essere scaricati, modificati e riutilizzati da chiunque, a differenza dei modelli a sorgente chiusa controllati direttamente dalle aziende sviluppatrici. Bengio ne ha riconosciuto il valore per la ricerca e l’accessibilità, insieme ai rischi che comportano.
Rispetto ai modelli a sorgente chiusa – come quelli alla base di ChatGpt, Copilot, Claude o Gemini – sono ancora indietro sul piano delle capacità, ma presentano criticità specifiche.
Come emerso nel caso delle armi biologiche, ha spiegato Bengio, “diversi laboratori hanno introdotto tutele per prevenire certi usi impropri, ma questo è molto più difficile con i modelli a pesi aperti”, perché chi scarica i pesi può rimuovere facilmente le protezioni.
Una volta rilasciato, ha aggiunto lo studioso, “un modello a pesi aperti
I commenti sono chiusi.