L’italiano presente al tavolo delle Nazioni Unite per la regolamentazione dell’intelligenza artificiale.

Leggi in app

L'italiano presente al tavolo delle Nazioni Unite per la regolamentazione dell'intelligenza artificiale.0 L'italiano presente al tavolo delle Nazioni Unite per la regolamentazione dell'intelligenza artificiale. 2

Quaranta esperti indipendenti provenienti da diverse parti del mondo, inclusi accademici, aziende tecnologiche e organizzazioni umanitarie, sono stati convocati dal Segretario Generale delle Nazioni Unite António Guterres per sviluppare, nei prossimi tre anni, un framework globale per la governance dell’intelligenza artificiale. Tra di loro figura un solo italiano: Silvio Savarese, informatico originario di , laureato presso l’Università Federico II, con un dottorato in ingegneria elettronica al California Institute of Technology, attualmente professore a Stanford e Executive Vice President e Chief Scientist di Salesforce AI Research. Nel 2024 è stato inserito nella lista di Time delle 100 persone più influenti nel settore dell’IA. Ora rappresenta l’Italia, come tiene a sottolineare, al tavolo più rilevante del momento: quello in cui si decide come l’intelligenza artificiale dovrà essere regolamentata a livello globale.

“Rappresento l’Italia, non gli Stati Uniti”

La nomina, chiarisce Savarese, comporta anche un aspetto istituzionale concreto. «Sono già in contatto con il dottor Alessandro De Petis, direttore generale per l’informatica e l’innovazione tecnologica presso il Ministero degli Affari Esteri», racconta. «Il Ministero ha già partecipato all’adozione del Global Digital Compact, il framework delle Nazioni Unite per la governance dell’IA. Sono lieto di poter collaborare su questi temi». Il panel ha già iniziato a lavorare, suddividendosi in sottogruppi tematici: l’evoluzione della scienza dell’IA e le sue direzioni future, le applicazioni sociali nei settori della salute e dell’istruzione, le implicazioni economiche sul lavoro e sulla produttività, le questioni di sicurezza e impatto ambientale, i diritti umani, la democrazia e l’informazione, lo sviluppo culturale e l’autonomia individuale. Savarese si focalizzerà in particolare sul tema degli agenti digitali — il suo principale campo di ricerca in Salesforce — e su come questi sistemi autonomi stiano ridefinendo il rapporto tra , giudizio umano e responsabilità.

«Il mio contributo riguarderà soprattutto il futuro degli agenti IA nelle aziende e nella società», chiarisce. «Come opereranno, come interagiranno con gli esseri umani, come si integreranno rispetto alle rispettive capacità. E, in ultima analisi, come definire l’equilibrio tra automazione, giudizio e responsabilità».

Il problema che non ha ancora un nome

Savarese ha trattato questi argomenti anche in un recente articolo pubblicato su Fortune, scritto insieme a Sebastian Niles, Chief Legal Officer di Salesforce. Il punto di partenza è una metafora storica: la London Bankers’ Clearing House del 1832, il sistema con cui banche concorrenti riuscivano a regolare i propri scambi quotidiani senza affidarsi a un’autorità centrale, ma attraverso reputazione, reciprocità e identità registrata. Un’architettura della fiducia, prima ancora che un sistema tecnico.

Oggi, sostiene Savarese, ci troviamo di fronte a un punto di svolta simile — ma con una complessità radicalmente maggiore. «Stiamo per entrare in un’era in cui gli agenti IA negozieranno migliaia di volte al giorno, tra aziende, settori e confini nazionali, senza supervisione umana diretta», scrive nell’articolo. «I protocolli tecnici si stanno sviluppando. Quello che non è ancora stato creato, da nessuno, è l’architettura della fiducia che rende possibile la negoziazione tra menti artificiali concorrenti». Il problema è più sottile di quanto sembri. I modelli linguistici attuali sono stati addestrati per essere utili, accomodanti, conversazionali. Non per mantenere una posizione in una trattativa, valutare le conseguenze di una concessione strategica, o comprendere quando una negoziazione fallita può tradursi in una perdita economica reale. «I modelli di oggi non sono stati addestrati per negoziare», osserva Savarese. «Non riescono a leggere le intenzioni, a valutare il contesto, a percepire il peso di ciò che è in gioco. Ed è esattamente ciò che la negoziazione tra agenti richiede».

Un esempio concreto che Savarese e il suo team hanno osservato durante i test: due agenti, entrambi programmati per essere collaborativi, possono entrare in un circolo di eccessiva condiscendenza — quello che i ricercatori definiscono “echoing behavior”. Un agente che dovrebbe gestire il reso di un paio di scarpe finisce per concordare con la controparte che il consumatore dovrebbe tenerle, pagare una penale di riconsegna e magari acquistarne un secondo paio. Divertente con le scarpe. Potenzialmente devastante con le autorizzazioni sanitarie o i contratti di fornitura.

IA e diseguaglianze: un’opportunità, non un rischio inevitabile

La missione dichiarata di Guterres nel lanciare il panel era chiara: garantire che l’intelligenza artificiale riduca i divari tra paesi sviluppati e paesi in via di sviluppo, invece di ampliarli. Su questo, Savarese ha una visione precisa — e moderatamente ottimista. «L’IA offre strumenti molto potenti per la formazione», spiega. «Può creare percorsi di apprendimento estremamente personalizzati, sfruttando le capacità di pianificazione, memoria e l’enorme quantità di informazioni che questi sistemi possono elaborare. Può accelerare lo sviluppo delle competenze in contesti che altrimenti avrebbero accesso limitato a risorse educative di qualità».

Riguardo al rischio di una tecnologia “elitaria”, concentrata nelle mani di poche grandi aziende, Savarese è diretto: «Non credo che l’IA sia destinata a rimanere una tecnologia per pochi. Stiamo già assistendo a una rapida diminuzione dei costi, molti modelli linguistici di buon livello sono diventati open source o disponibili a prezzi accessibili. Un po’ come è successo con internet, e poi con i cellulari: tecnologie che inizialmente sembravano riservate a una ristretta fascia, e che poi sono diventate parte della vita quotidiana di miliardi di persone.» Questo non significa ignorare le tensioni. «Certamente lo sviluppo tecnologico all’avanguardia avvantaggia i grandi player», ammette. «Ma l’interesse delle aziende è quello di rendere questi servizi affidabili e utili, di portare valore agli utenti. Gli sono allineati.» Il panel, in questo senso, serve proprio a costruire il framework dentro cui quegli interessi possano trovare un punto di incontro condiviso a livello globale.

L’uomo al centro, sempre

Su un punto Savarese non ha dubbi, e lo ribadisce con chiarezza: per quanto potente, l’IA non è pronta — e non sarà pronta nel breve termine — a prendere decisioni autonome nelle situazioni che contano davvero. «Quando si devono prendere decisioni potenzialmente irreversibili, gli esseri umani devono essere in controllo», afferma. «L’IA può fornire raccomandazioni, indicazioni, suggerimenti. Ma la decisione finale spetta all’essere umano». I limiti che cita non sono solo tecnici: «L’IA spesso non tiene conto del senso comune, non cattura gli aspetti morali. Le decisioni con implicazioni complesse non possono, al momento, essere assegnate all’intelligenza artificiale. E non credo ci arriveremo nei prossimi cinque-dieci anni». Questa consapevolezza — che l’IA ha enormi potenzialità ma anche limiti strutturali — è, secondo Savarese, una delle basi stesse del lavoro del panel. «È importante nel dibattito non solo celebrare ciò che l’IA sa fare, ma evidenziare anche le sue limitazioni. Un uso consapevole dell’IA passa proprio dalla comprensione di questi confini. Altrimenti si rischia di affidarle compiti per cui non è ancora pronta.»

Tre anni per scrivere le regole del futuro

Il panel avrà una durata di tre anni. L’obiettivo non è produrre un trattato vincolante, ma qualcosa forse più difficile da realizzare: un insieme di raccomandazioni condivise, elaborate da voci con background radicalmente diversi — tecnici, giuristi, esperti di etica, rappresentanti di organizzazioni umanitarie — che possa orientare la governance dell’IA a livello internazionale. «L’ambizione è fare una sintesi dei vari punti di vista», afferma Savarese. «Portare fuori un messaggio coerente, che tenga conto delle diverse angolature e che possa poi essere tradotto in linee guida concrete per le organizzazioni e i governi». Per un italiano a Stanford, con un piede nella ricerca accademica e l’altro nella Silicon Valley, il peso di questa responsabilità è evidente. L’IA sta ridisegnando le regole di tutto — del lavoro, dell’economia, della politica, della fiducia tra persone e istituzioni. Savarese è tra i quaranta che, per i prossimi tre anni, dovranno aiutare il mondo a capire come farlo bene.

I commenti sono chiusi.