I divulgatori del rischio esistenziale che offrono la loro intelligenza artificiale agli enti governativi

I divulgatori del rischio esistenziale che offrono la loro intelligenza artificiale agli enti governativi 1

Nel corso dell’ultimo anno, la missione di OpenAI ha subito un cambiamento notevole, passando dall’obiettivo di sviluppare un’AGI – un’intelligenza artificiale generale equiparabile a quella umana – a un focus sui centri di comando militari.

L’azienda, sotto la direzione di Sam Altman, famosa per la creazione di , ha siglato un accordo con il Dipartimento della Difesa degli Stati Uniti, per fornire la propria tecnologia destinata a operazioni militari.

Quando OpenAI ha reso nota la collaborazione con il Governo statunitense, ha incluso tra le motivazioni una dichiarazione controversa:

“Riteniamo che la nostra tecnologia porterà nuovi rischi nel mondo e desideriamo che coloro che difendono gli Stati Uniti abbiano a disposizione i migliori strumenti”.

Questa affermazione evidenzia il sorprendente cambiamento di rotta di un’azienda che, fino a poco tempo fa, sosteneva di perseguire un’intelligenza artificiale “sicura e vantaggiosa per l’umanità”.

Da ente no-profit a difesa nazionale

Per afferrare la portata di questo cambiamento, è utile esaminare le origini di OpenAI, fondata nel 2015 come organizzazione senza scopo di lucro.

Il documento costitutivo dell’azienda, il “Charter” disponibile online, stabiliva l’intento di sviluppare un’intelligenza artificiale generale – un sistema capace di eguagliare o superare le capacità umane in una vasta gamma di compiti cognitivi – nell’interesse collettivo.

Inizialmente, la missione condivisa dai fondatori, tra cui Elon Musk, era quella di divulgare i risultati delle ricerche sull’intelligenza artificiale – da qui il nome OpenAI, che significa IA “aperta” – per prevenire che questa potente tecnologia diventasse un monopolio pericoloso – all’epoca si temeva la concentrazione nelle mani di Google – o, peggio, che potesse sfuggire al controllo umano.

Musk, che ha lasciato OpenAI nel 2018, era particolarmente preoccupato che in futuro si potesse realizzare l’incubo rappresentato nel film Terminator: un’IA così avanzata da sviluppare una volontà propria, capace di decidere che l’umanità fosse il problema da eliminare.

Dieci anni dopo, non solo l’azienda che ha creato ChatGpt afferma di poter contribuire all’emergere di nuovi rischi per l’umanità.

Ma sostiene anche che questa tecnologia pericolosa deve necessariamente essere al servizio degli Stati Uniti, affinché possa proteggere il Paese.

Almeno sul fronte militare, la missione di “beneficiare l’umanità” si è ristretta fino a coincidere con gli di una sola nazione.

Il paradosso della sicurezza globale

Anthropic, un’altra azienda di spicco nel settore fondata da ex dipendenti di OpenAI con l’intento dichiarato di costruire sistemi più sicuri e controllabili, ha intrapreso recentemente un percorso simile.

È importante notare che anche Anthropic, prima che Dario Amodei diventasse il difensore che si è rifiutato di cedere la propria tecnologia al Pentagono senza garanzie solide sul suo utilizzo – niente sorveglianza di massa, niente armi autonome – aveva già messo i propri sistemi avanzati a disposizione di applicazioni militari.

Attraverso collaborazioni con attori come Palantir e Amazon Web Services, Anthropic ha reso disponibili i propri modelli per analisi di dati logistici e operazioni di intelligence.

Le aziende che ci avvertono del rischio esistenziale di un’IA fuori controllo sono, paradossalmente, le stesse che oggi forniscono quei sistemi ai governi. Convinte, o almeno così affermano, che la sicurezza sia la condizione necessaria per qualsiasi discussione sulla sicurezza globale.

Claude, il chatbot dell’azienda:

“Siamo preoccupati, in termini più generali, che un mondo trasformato dall’IA avanzata possa mettere a disposizione di chi controlla i sistemi più potenti livelli di superiorità militare ed economica senza precedenti, e che il potere incontrollato che ne deriverebbe possa essere usato in modi catastrofici”, afferma Anthropic.

L’azienda dichiara di non avere “una soluzione completa a questo problema”, e sottolinea che in alcuni casi “una transizione sicura e vantaggiosa verso l’IA avanzata potrebbe richiedere che alcuni attori – ad esempio governi nazionali legittimi e coalizioni – sviluppino capacità pericolosamente potenti, anche in ambito di sicurezza e difesa”.

Anche in questo caso si parla di “benefici”. Ma solo per “alcuni”. E comunque resi incerti da un serio pericolo all’orizzonte.

La competizione geopolitica nel segno dell’IA

L’accelerazione dell’IA verso l’uso militare non avviene in un contesto politico isolato.

Il quadro è quello di una competizione tecnologica intensa tra gli Stati Uniti e la Cina, dove l’intelligenza artificiale è considerata il fattore cruciale per la supremazia del prossimo decennio.

Il governo degli Stati Uniti spinge affinché le eccellenze della Silicon Valley contribuiscano direttamente alla resilienza dello Stato, vedendo nel settore privato un asset strategico fondamentale.

In questo contesto, il termine “umanità” sembra aver subito una restrizione semantica: non si riferisce più a una comunità globale indistinta, ma viene filtrato attraverso l’appartenenza a blocchi geopolitici contrapposti.

La tecnologia che doveva proteggere il mondo da se stessa è diventata lo strumento principale con cui una parte di esso intende mantenere – e accrescere – i propri vantaggi.

I commenti sono chiusi.