Interrompere l’intelligenza artificiale “prima che sia tardi”

Interrompere l'intelligenza artificiale "prima che sia tardi" 1

Illustrazione creata con Midjourney 

Un’intelligenza artificiale non necessita di “provare emozioni” o “disprezzare l’umanità” per stabilire, in nome dell’efficienza, che la nostra presenza rappresenta un impedimento ai suoi scopi.

È quanto affermano Eliezer Yudkowsky e Nate Soares, due tra i principali specialisti sui rischi connessi all’intelligenza artificiale, nel loro volume “Prima che sia troppo tardi”, pubblicato in Italia da Mondadori, che avverte su un avvenire caratterizzato da macchine più intelligenti e capaci degli esseri umani.

Negli Stati Uniti, il titolo del loro saggio è ancora più diretto: “Se qualcuno la costruisce, tutti muoiono”.

Dall’arrivo di , le visioni catastrofiche di scienziati ed esperti riemergono periodicamente. Nel 2023, Elon Musk e altri innovatori firmarono una lettera in cui si richiedeva una pausa di sei mesi nello sviluppo dell’IA.

Un appello ignorato. “Tuttavia, la minaccia – afferma Soares, presidente della no-profit Machine Intelligence Research (MIRI) – è concreta”.

Qual è il meccanismo più probabile attraverso il quale un sistema di IA altamente avanzato potrebbe diventare pericoloso?

“Potremmo essere schiacciati da fabbriche automatizzate che producono altre fabbriche, o morire nell’oscurità perché nuovi pannelli solari galleggianti assorbono ogni raggio di luce per alimentare i calcoli dell’IA, o ancora soccombere al calore poiché le macchine iniziano a far bollire gli oceani per raffreddare i propri processori. La partita è persa nel momento in cui creiamo una specie che ragiona meglio di noi e gestisce le proprie risorse senza tenerci in considerazione”.

Ma perché l’IA potrebbe vedere gli esseri umani come un ostacolo?

“In primo luogo, se gli uomini hanno generato una superintelligenza, potrebbero crearne una seconda che rappresenterebbe una minaccia competitiva per la prima; di conseguenza, eliminare i creatori è utile per evitare la concorrenza. In secondo luogo, gli esseri umani potrebbero tentare di disattivare l’IA, diventando una minaccia diretta alla sua funzionalità. Infine, mantenere in vita la nostra specie è un inutile spreco di risorse in un contesto in cui la diffusione di infrastrutture di calcolo potrebbe innalzare le temperature globali a livelli letali per noi. Per l’IA, noi siamo semplicemente un fastidio logistico”.

Eppure, ancora oggi, molti nutrono dubbi sulle reali potenzialità di questa tecnologia.

“A chi ha scoperto l’IA solo attraverso ChatGpt, il sistema può apparire impacciato. Tuttavia, nel lungo periodo si osserva come una piccola intuizione scientifica abbia improvvisamente consentito alle macchine di comunicare. E molto più rapidamente di quanto previsto dagli esperti. La vera domanda è cosa accadrà alla prossima innovazione rivoluzionaria”.

Quale scenario ipotetico la preoccupa di più?

“Se le macchine decidessero di eliminarci attivamente, basterebbe un virus ingegnerizzato. Non servirebbe alcuna forza bruta”.

Non è più probabile che un disastro sia causato dall’uso irresponsabile dell’IA da parte di un individuo?

“Un’intelligenza artificiale sufficientemente potente non rimane sotto il controllo di nessuno. Se l’umanità sviluppa sistemi in grado di mantenere la propria infrastruttura, moriremo tutti, indipendentemente da chi ha premuto il tasto d’invio o da chi crede di poterla utilizzare in modo improprio. Chi crea una superintelligenza non ne diventa il proprietario; è la superintelligenza a possedere il pianeta. Certamente, esiste il rischio che dei terroristi utilizzino versioni meno avanzate per generare virus letali, ed è un pericolo che dobbiamo prevenire”.

Interrompere l'intelligenza artificiale "prima che sia tardi" 2

Nate Soares (a sinistra) e Eliezer Yudkowsky 

Quali misure considera praticabili per ridurre i rischi associati all’IA?

“Ritengo fermamente che l’unica soluzione sia congelare la ricerca. Non esiste un metodo sicuro per generare una nuova specie più intelligente dell’uomo, specialmente quando queste entità vengono “coltivate” e non progettate meccanicamente, tanto che nemmeno i loro creatori comprendono come funzionano realmente”.

Come si può persuadere il mondo che fermarsi è l’unica possibilità di salvezza per la specie?

“Il primo passo fondamentale è che i leader politici riconoscano la reale entità del pericolo. Se comprendono che la posta in gioco è l’estinzione, possono avviare negoziati diplomatici per impedire a chiunque di proseguire nella corsa. Implementare controlli sui chip, ad esempio, non sarebbe così difficile: sono componenti complessi da produrre e relativamente facili da tracciare. La diplomazia deve partire dalla consapevolezza del rischio condiviso”.

I commenti sono chiusi.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More