Interrompere lo sviluppo dell’intelligenza artificiale “prima che sia tardi”

Interrompere lo sviluppo dell'intelligenza artificiale "prima che sia tardi" 1

Illustrazione creata con Midjourney 

Un’intelligenza artificiale non necessita di “provare emozioni” o “disprezzare l’umanità” per concludere, in nome dell’efficienza, che la nostra esistenza rappresenta un impedimento ai suoi scopi.

Questa è l’opinione di Eliezer Yudkowsky e Nate Soares, due tra i principali esperti sui rischi associati all’intelligenza artificiale, nel loro libro “Prima che sia troppo tardi”, pubblicato in Italia da Mondadori, che avverte su un futuro abitato da macchine più intelligenti e capaci degli esseri umani.

Negli Stati Uniti, il titolo del loro saggio è ancora più diretto: “Se qualcuno la costruisce, tutti muoiono”.

Dall’arrivo di , le visioni catastrofiche di scienziati e specialisti riemergono periodicamente. Nel 2023, Elon Musk e altri innovatori hanno firmato una lettera in cui si richiedeva una pausa di sei mesi nello sviluppo dell’IA.

Un appello rimasto inascoltato. “Tuttavia, la minaccia – afferma Soares, presidente della no-profit Machine Intelligence Research (MIRI) – è concreta”.

Qual è il meccanismo più probabile attraverso il quale un sistema di IA altamente avanzato potrebbe diventare pericoloso?

“Potremmo essere schiacciati da fabbriche automatizzate che producono altre fabbriche, o morire nell’oscurità perché nuovi pannelli solari galleggianti assorbono ogni raggio di luce per alimentare i calcoli dell’IA, o ancora soccombere al calore poiché le macchine iniziano a far bollire gli oceani per raffreddare i propri processori. La partita è persa nel momento in cui creiamo una specie che ragiona meglio di noi e gestisce le proprie risorse senza tenerci in considerazione”.

Ma perché l’IA potrebbe considerare gli esseri umani come un ostacolo?

“In primo luogo, se gli uomini hanno creato una superintelligenza, potrebbero crearne una seconda che rappresenterebbe una minaccia competitiva per la prima; di conseguenza, eliminare i creatori è utile per prevenire la concorrenza. In secondo luogo, gli esseri umani potrebbero tentare di disattivare l’IA, diventando una minaccia diretta alla sua operatività. Infine, mantenere in vita la nostra specie è un inutile spreco di risorse in un contesto in cui la proliferazione di infrastrutture di calcolo potrebbe innalzare le temperature globali a livelli letali per noi. Per l’IA, noi siamo semplicemente un fastidio logistico”.

Nonostante ciò, molti continuano a nutrire dubbi sulle reali capacità di questa tecnologia.

“A chi ha scoperto l’IA solo attraverso ChatGpt, il sistema può apparire goffo. Tuttavia, nel lungo periodo si nota come una piccola intuizione scientifica abbia improvvisamente consentito alle macchine di comunicare. E molto più rapidamente di quanto previsto dagli esperti. La vera domanda è cosa accadrà alla prossima innovazione rivoluzionaria”.

Quale scenario ipotetico la preoccupa di più?

“Se le macchine decidessero di eliminarci attivamente, basterebbe un virus ingegnerizzato. Non sarebbe necessaria alcuna forza bruta”.

Non è più probabile che un disastro sia causato dall’uso irresponsabile dell’IA da parte di un individuo?

“Un’intelligenza artificiale sufficientemente potente non rimane sotto il controllo di nessuno. Se l’umanità sviluppa sistemi capaci di mantenere la propria infrastruttura, moriremo tutti, indipendentemente da chi ha premuto il tasto d’invio o da chi crede di poterla utilizzare in modo improprio. Chi crea una superintelligenza non ne diventa il proprietario; è la superintelligenza a possedere il pianeta. Certamente, esiste il rischio che dei terroristi utilizzino versioni meno avanzate per generare virus letali, ed è un pericolo che dobbiamo prevenire”.

Interrompere lo sviluppo dell'intelligenza artificiale "prima che sia tardi" 2

Nate Soares (a sinistra) e Eliezer Yudkowsky 

Quali misure considera praticabili per ridurre i rischi associati all’IA?

“Ritengo fermamente che l’unica soluzione sia fermare la ricerca. Non esiste un modo sicuro per creare una nuova specie più intelligente dell’uomo, specialmente quando queste entità vengono “coltivate” e non progettate meccanicamente, tanto che nemmeno i loro creatori comprendono come funzionano realmente”.

Come si può persuadere il mondo che fermarsi è l’unica possibilità di salvezza per la specie?

“Il primo passo fondamentale è che i leader politici comprendano la reale entità del pericolo. Se si rendono conto che la posta in gioco è l’estinzione, possono avviare trattative diplomatiche per impedire a chiunque di continuare la corsa. Implementare controlli sui chip, ad esempio, non sarebbe così difficile: sono componenti complessi da produrre e relativamente facili da tracciare. La diplomazia deve partire dalla consapevolezza del rischio condiviso”.

I commenti sono chiusi.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More