Uscita da ChatGPT dopo l’intesa tra OpenAI e Pentagono. Le implicazioni per la privacy.

Uscita da ChatGPT dopo l'intesa tra OpenAI e Pentagono. Le implicazioni per la privacy. 1

Nel mese di febbraio, Anthropic ha deciso di non concedere al Pentagono accesso completo ai propri modelli di intelligenza artificiale.

Secondo il CEO di Anthropic, Dario Amodei, eliminare ogni protezione etica renderebbe gli Stati Uniti simili ai Paesi contro cui combattono o che demonizzano.

Di conseguenza, il dipartimento della Difesa americano ha scelto di interrompere la collaborazione con Anthropic, il cui valore si aggira attorno ai 200 milioni di dollari, per rivolgersi a OpenAI, l’azienda guidata da Sam Altman che sviluppa , considerato il simbolo delle IA generative.

Questo tema ha contribuito a generare un boicottaggio che penalizza OpenAI e avvantaggia Anthropic. Infatti, dopo l’accordo con il Pentagono, OpenAI ha visto un calo di clienti, tanto che le disinstallazioni di ChatGPT sono aumentate del 295% e Claude, il modello IA di Anthropic, ha raggiunto la cima delle app più scaricate, causando il malfunzionamento di app e sito per alcune ore. La situazione è più complessa di quanto possa sembrare a una prima analisi, poiché non si tratta solo di attività militari, ma anche del potenziale utilizzo delle IA per compromettere fragili equilibri democratici. Ad esempio, nonostante le tensioni con Anthropic, il Pentagono avrebbe impiegato i modelli dell’azienda per coordinare i primi attacchi contro l’Iran, ignorando l’ordine della Casa Bianca.

L’annuncio di Sam Altman e il rispetto della legalità

L’annuncio di Sam Altman riguardante l’avvio della collaborazione con il dipartimento della Difesa americana (nuova denominazione del dipartimento della Difesa introdotta dal presidente Donald J. ) evidenzia l’importanza della salvaguardia dei principi etici e democratici.

Altman, come evidenziato da The Verge, esclude categoricamente che OpenAI possa essere coinvolta in pratiche di sorveglianza di massa o che possa ammorbidire le proprie posizioni riguardo alla responsabilizzazione dell’individuo.

Secondo quanto riportato da fonti interpellate da The Verge, analisi più approfondite renderebbero le affermazioni di Sam Altman poco più che illusioni.

In effetti, OpenAI non avrebbe ricevuto concessioni, ma avrebbe semplicemente accettato di piegarsi alle richieste del Pentagono, mascherando la propria capitolazione con un linguaggio ambiguo che suggerisce il pieno rispetto delle leggi esistenti, ossia quelle norme scritte e stabilite secondo le quali la sorveglianza di massa esce dai confini della legalità.

Le peculiarità dell’accordo tra Pentagono e OpenAI

L’accordo stipulato con il Pentagono include una clausola che prevede l’utilizzo dei modelli OpenAI per qualsiasi uso legittimo. Ci sono tre elementi fondamentali in gioco.

Il Quarto Emendamento garantisce ai cittadini il diritto di essere protetti da perquisizioni e sequestri irragionevoli. A questo si aggiunge il Foreign Intelligence Surveillance Act (FISA), legge federale del 1978 che regola le attività di sorveglianza elettronica.

Il terzo elemento è l’Executive Order 12333, firmato nel 1981 dall’allora presidente americano Ronald Reagan, che, grazie a modifiche successive, è diventato un punto di riferimento normativo per le operazioni di sorveglianza al di fuori degli Stati Uniti, autorizzando attività senza mandato, poiché non devono rispettare le regole interne imposte da FISA.

Ed è proprio prendendo spunto da queste tre strutture e dal modo in cui sono state utilizzate nel corso degli anni che le affermazioni di Altman possono essere contestualizzate.

La democrazia algoritmica

Sono trascorsi 13 anni dalle rivelazioni di Edward Snowden, l’analista americano che ha dimostrato come il programma PRISM consentisse la raccolta di dati da grandi aziende tecnologiche come Apple e Google, riuscendo così a intercettare comunicazioni all’interno degli Stati Uniti grazie ai diritti garantiti dall’Executive Order 12333.

In un contesto simile, promettere di rispettare la legge non costituisce una garanzia di privacy, ma una licenza per il Pentagono di proseguire con pratiche di spionaggio di massa potenziate dall’intelligenza artificiale, afferma Mike Masnick, fondatore del sito Techdirt che, dal 1988, si occupa di innovazione, politica tecnologica e diritti civili.

Queste affermazioni si allineano con quanto sostiene Dario Amodei, secondo cui il livello di sorveglianza consentito dall’uso delle IA è incompatibile con i valori democratici. Secondo le voci critiche, pur negando di consentire analisi generalizzate, Sam Altman utilizzerebbe termini vaghi per permettere alle forze militari di operare senza che i dipendenti di OpenAI possano tecnicamente accusarle di violare i termini dell’accordo.

Il rischio non è solo bellico

OpenAI ha affermato che i suoi modelli saranno ospitati esclusivamente nel cloud e non direttamente sui droni. Tuttavia, gli esperti considerano questa distinzione irrilevante poiché la “catena di uccisione autonoma” (autonomous kill chain) che comprende l’identificazione, la mappatura e la selezione dell’obiettivo, avviene quasi interamente tramite algoritmi che operano nel cloud.

Nella complessità del quadro che si sta delineando, le IA non servirebbero solo come supporto alle operazioni militari, ma faciliterebbero l’identificazione di schemi comportamentali in grado di restituire profili dettagliati di ogni cittadino, ad esempio incrociando geolocalizzazione, pagine web visitate, dati finanziari ed elettorali, oltre alle immagini catturate dalle telecamere di sorveglianza.

L’accordo tra OpenAI e il Pentagono rappresenterebbe quindi un punto di non ritorno. Quando la legge viene interpretata in modo flessibile da agenzie di intelligence, non solo le garanzie fornite da OpenAI risultano deboli, ma sono le leggi stesse a perdere la fiducia che dovrebbero infondere.

Il conflitto tra le visioni di OpenAI e di Anthropic sta creando una frattura all’interno degli Stati Uniti. Per Washington, Anthropic è un’azienda che mette in pericolo la catena di approvvigionamento governativa, un’etichetta solitamente riservata a imprese ostili, tipicamente cinesi o comunque straniere.

Il segretario della Difesa Pete Hegseth ha chiarito che il futuro militare degli Stati Uniti non sarà subordinato alle ideologie delle aziende tecnologiche nazionali.

La posizione di OpenAI appare quindi come un allineamento strategico per evitare ritorsioni governative, a scapito della reale protezione dei dati dei cittadini.

I commenti sono chiusi.