L’impiego dell’intelligenza artificiale in ambito militare rappresenta un rischio senza precedenti per i diritti umani.

L'impiego dell'intelligenza artificiale in ambito militare rappresenta un rischio senza precedenti per i diritti umani. 1

Il presidente degli Stati Uniti, Donald , e il capo di OpenAI, Sam Altman, alla Casa Bianca 

La decisione di Anthropic di opporsi alle sollecitazioni del Pentagono merita un’analisi più approfondita rispetto a quella ricevuta finora. Non si tratta di una questione di integrità etica: il fulcro della questione non risiede nei meriti o nella coscienza civica di Amodei. L’attenzione rivolta a questo aspetto è una deviazione da un argomento ben più significativo: la protezione dello stato di diritto.

Sappiamo che l’amministrazione americana intende testare e utilizzare l’intelligenza artificiale per la sorveglianza di massa e per il targeting: le linee rosse che Anthropic ha scelto di non oltrepassare. Tuttavia, è noto anche che l’IA di Anthropic è già impiegata per identificare immigrati, per operazioni in Venezuela, molto probabilmente per attacchi informatici, e per elaborare strategie e tattiche militari. L’impiego dell’IA nella difesa avviene in assenza di una regolamentazione che ne definisca gli usi legittimi e ne stabilisca i limiti. Il pericolo è che diventi lo strumento attraverso cui lo Stato estende il proprio potere in modo sistematico oltre ogni confine, sia all’interno che all’esterno dei propri limiti. È questo il punto che il caso Anthropic evidenzia. È su questo che dovremmo focalizzarci.

L’uso dell’IA nella difesa — dall’intelligence alle operazioni cibernetiche, fino alle decisioni tattiche sul campo — non rappresenta una novità, né un fenomeno reversibile. Da anni le nazioni sviluppano e testano queste tecnologie in ambito militare. Il conflitto in ha segnato il momento in cui la sperimentazione è diventata una prassi operativa consolidata. A questa diffusione non ha fatto seguito alcuna risposta normativa adeguata. Non esistono regole, standard comuni o soglie di rischio condivise.

Le poche normative dedicate all’IA — l’AI Act europeo, l’AI Basic Act sudcoreano — escludono esplicitamente la difesa dal proprio ambito di applicazione. Il diritto internazionale umanitario è valido in linea di principio, ma la sua applicazione ai sistemi autonomi richiede interpretazioni ancora da sviluppare. I rischi derivanti da questa mancanza – dalla violazione massiva della privacy al targeting indiscriminato, fino all’escalation causata dal limitato controllo umano su questi sistemi – non appartengono a un futuro remoto. Non possono essere attenuati confidando nella bussola morale dei leader aziendali. Lo abbiamo osservato con la privacy e la moderazione dei contenuti sui social: la self-regulation non produce risultati efficaci. Sono necessarie regole e un dibattito pubblico che si concentri su questa esigenza, chiedendo conto ai legislatori nazionali e sovranazionali di questa lacuna.

La diffusione pervasiva dell’IA nella difesa, priva di una regolamentazione adeguata, erode il diritto internazionale umanitario dall’interno, in modo silenzioso e sistemico. Quel diritto è già sotto attacco dall’esterno. Un’erosione interna, meno visibile e potenzialmente estesa a tutti gli Stati che adottano queste tecnologie, rischia di rivelarsi ancora più insidiosa.

Il diritto internazionale e la democrazia liberale sono nati insieme, gemelli emersi dalle macerie di due guerre mondiali che hanno mostrato, con chiarezza drammatica, dove conduce il potere statale quando non incontra limiti. I gemelli condividono una stessa costituzione: ciò che indebolisce uno non lascia l’altro indenne.

I progetti americani di utilizzare l’IA nella difesa senza limiti definiti, insieme al fallimento della comunità internazionale nel dotarsi di regole adeguate, indeboliscono il diritto umanitario internazionale, e con esso le nostre democrazie e i diritti che tutelano. È opportuno ricordarlo: i diritti non si perdono all’improvviso, ma gradualmente, e l’uso dell’IA nella difesa è una di queste occasioni. È meglio smettere di osservare il dito e concentrarsi su ciò che ci indica.

*Docente di Digital Ethics and Defence Technologies all’Oxford Internet Institute dell’Università di Oxford. Autrice di Codice di Guerra, pubblicato da Raffaello Cortina.

I commenti sono chiusi.