I divulgatori del rischio esistenziale che offrono la loro intelligenza artificiale alle istituzioni governative
La missione di OpenAI ha subito un cambiamento notevole nell’ultimo anno, passando dalla corsa verso l’AGI – un’intelligenza artificiale generale di livello umano – ai centri di comando militare.
L’azienda guidata da Sam Altman, famosa per lo sviluppo di ChatGpt, ha siglato un accordo con il Dipartimento della Difesa degli Stati Uniti, al quale fornirà la propria tecnologia per condurre operazioni militari.
Quando OpenAI ha reso nota la collaborazione con il Governo statunitense, ha incluso tra le motivazioni una dichiarazione controversa:
“Riteniamo che la nostra tecnologia porterà nuovi rischi nel mondo e desideriamo che coloro che difendono gli Stati Uniti abbiano a disposizione gli strumenti migliori”.
Questa posizione evidenzia il sorprendente cambiamento di rotta di un’azienda che, fino a poco tempo fa, affermava di perseguire un’intelligenza artificiale “sicura e vantaggiosa per l’umanità”.
Da laboratorio no-profit alla difesa nazionale
Per comprendere l’entità di questo cambiamento, è necessario esaminare le origini di OpenAI, fondata nel 2015 come organizzazione senza scopo di lucro.
Il documento fondativo dell’azienda, il “Charter” disponibile online, stabiliva l’obiettivo di sviluppare un’intelligenza artificiale generale – ovvero un sistema capace di eguagliare o superare le capacità umane in una vasta gamma di compiti cognitivi – nell’interesse collettivo.
Inizialmente, la missione condivisa dai fondatori, tra cui Elon Musk, era quella di divulgare i risultati delle ricerche sull’intelligenza artificiale – da qui il nome OpenAI, che significa IA “aperta” – per evitare che questa potente tecnologia diventasse un monopolio pericoloso – all’epoca si temeva la concentrazione nelle mani di Google – o, peggio, potesse sfuggire al controllo umano.
Musk, che ha lasciato OpenAI nel 2018, temeva in particolare che in futuro potesse realizzarsi l’incubo descritto nel film Terminator: un’IA così avanzata da sviluppare una volontà autonoma, capace di decidere che l’umanità fosse il problema da eliminare.
Dieci anni dopo, non solo l’azienda che ha creato ChatGpt afferma di poter contribuire all’introduzione di nuovi rischi per l’umanità.
Ma sostiene anche che questa tecnologia pericolosa deve necessariamente essere al servizio degli Stati Uniti, affinché possa proteggere il Paese.
Almeno sul fronte militare, la missione di “beneficiare l’umanità” si è ristretta fino a coincidere con gli interessi di una sola nazione.
Il paradosso della sicurezza globale
Anthropic, un’altra azienda di spicco nel settore fondata da ex dipendenti di OpenAI con l’obiettivo dichiarato di costruire sistemi più sicuri e controllabili, ha intrapreso da tempo una strada simile.
È importante notare che anche Anthropic, prima che Dario Amodei diventasse il difensore che si è rifiutato di cedere la propria tecnologia al Pentagono senza garanzie solide sul suo utilizzo – niente sorveglianza di massa, niente armi autonome – aveva già messo i propri sistemi avanzati al servizio di applicazioni militari.
Attraverso collaborazioni con attori come Palantir e Amazon Web Services, Anthropic ha reso disponibili i propri modelli per analisi di dati logistici e operazioni di intelligence.
Le aziende che ci avvertono del rischio esistenziale di un’IA fuori controllo sono, paradossalmente, le stesse che oggi forniscono quei sistemi ai governi. Convinte, o almeno così affermano, che la sicurezza nazionale sia la condizione necessaria per qualsiasi discussione sulla sicurezza globale.
Claude, il chatbot dell’azienda:
“Siamo preoccupati, in termini più generali, che un mondo trasformato dall’IA avanzata possa fornire a chi controlla i sistemi più potenti livelli di superiorità militare ed economica senza precedenti, e che il potere incontrollato che ne deriverebbe possa essere utilizzato in modi catastrofici”, afferma Anthropic.
L’azienda dichiara di non avere “una soluzione completa a questo problema”, e sottolinea che in alcuni casi “una transizione sicura e vantaggiosa verso l’IA avanzata potrebbe richiedere che alcuni attori – ad esempio governi nazionali legittimi e coalizioni – sviluppino capacità pericolosamente potenti, anche in ambito di sicurezza e difesa”.
Anche in questo caso si parla di “benefici”. Ma solo per “alcuni”. E comunque resi incerti da un serio pericolo all’orizzonte.
La competizione geopolitica nel segno dell’IA
L’accelerazione dell’IA verso l’uso militare non avviene in un contesto politico isolato.
Il quadro è quello di una competizione tecnologica intensa tra gli Stati Uniti e la Cina, dove l’intelligenza artificiale è considerata il fattore cruciale per la supremazia del prossimo decennio.
Il governo degli Stati Uniti spinge affinché le eccellenze della Silicon Valley contribuiscano direttamente alla resilienza dello Stato, vedendo nel settore privato un asset strategico fondamentale.
In questo contesto, il termine “umanità” sembra aver subito una restrizione semantica: non si riferisce più a una comunità globale indistinta, ma viene filtrato attraverso l’appartenenza a blocchi geopolitici contrapposti.
La tecnologia che doveva proteggere il mondo da se stessa è diventata lo strumento principale con cui una parte di esso intende mantenere – e accrescere – i propri vantaggi.
I commenti sono chiusi.