Il motivo reale per cui Anthropic rifiuta le armi autonome

Il motivo reale per cui Anthropic rifiuta le armi autonome 1

Il CEO di Anthropic, Dario Amodei, dopo un incontro con il presidente francese Emmanuel Macron durante l’AI Impact Summit a Nuova Delhi il 19 febbraio 2026. 

La notizia del 9 marzo 2026, secondo cui Anthropic avrebbe deciso di intraprendere azioni legali contro il Department of War degli Stati Uniti, segna un nuovo capitolo nella controversia con l’amministrazione .

Il fulcro della disputa è il rifiuto di Anthropic di permettere che le proprie intelligenze artificiali vengano utilizzate per sviluppare sistemi di sorveglianza di massa e armi con vari livelli di autonomia, il che ha portato l’amministrazione a escludere la Big Tech dai settori più cruciali (e quindi proficui) degli appalti militari.

Tutela dei diritti o strategia di contrattazione?

La decisione di annunciare l’intenzione di rivolgersi ai tribunali, piuttosto che farlo direttamente e poi divulgare la notizia, sembra più un tentativo di spingere l’amministrazione a riconsiderare la propria posizione che una reale volontà di ottenere giustizia.

Un elemento che avvalora questa teoria è la motivazione contorta con cui Anthropic intende costruire il proprio caso: la violazione della libertà di espressione. Secondo la Big Tech, infatti, l’esclusione dall’accesso agli appalti militari rappresenterebbe una “rappresaglia” che si traduce in una indebita compressione del diritto dell’azienda di esprimere liberamente il proprio pensiero.

Saranno i giudici, se la causa verrà effettivamente avviata, a esaminare la questione. Tuttavia, una scelta di questo tipo dimostra come, ancora una volta, i diritti fondamentali siano (diventati) semplicemente uno strumento per la salvaguardia di (economici) che nulla hanno a che vedere con il motivo per cui sono stati concepiti. Da strumenti per tutelare l’essere umano, sono diventati parte dell’arsenale per la negoziazione di interessi economici.

La novità della cronaca non modifica, tuttavia, le tre questioni sostanziali che emergono dal comunicato di Amodei pubblicato sul sito di Anthropic.

Quando Big Tech contratta da pari a pari con i governi

La prima riguarda il tema (non certo inedito, dato che ne abbiamo discusso su queste colonne già nel 2021) di quello che è stato definito neomedievalismo tecnologico, ovvero quel contesto politico in cui lo Stato non è più l’unico detentore del potere sovrano, ma deve condividerlo con Big Tech.

È già accaduto con Apple, che rifiutò di progettare iOS in modo da facilitare le indagini delle autorità, con Starlink, che dopo i test nel conflitto ucraino ha ricevuto manifestazioni di interesse dal Giappone, con Meta che è diventato un fornitore di difesa, e con OpenAI che ha imposto ai militari di non utilizzare la propria tecnologia per creare sistemi di sorveglianza di massa.

Il filo conduttore che unisce questi eventi non è il merito delle scelte (alcune aziende hanno optato per un supporto alle attività militari, altre hanno imposto limitazioni), ma il fatto che abbiano negoziato (o desiderino negoziare) da pari a pari con l’esecutivo non su questioni relative a costi e forniture, ma su aspetti che coinvolgono la sovranità strategica di uno Stato.

La sorveglianza di massa tra retorica e sicurezza

La questione diventa più chiara se viene analizzata in relazione al caso specifico.

Nella negoziazione con il Department of War, sia Anthropic sia OpenAI hanno dichiarato di non permettere che le proprie tecnologie vengano utilizzate per costruire sistemi di sorveglianza di massa sui cittadini americani (ma non su quelli di altri Paesi).

Considerata la diffusa sensibilità globale per la “tutela della privacy”, una scelta di questo tipo è sicuramente vantaggiosa dal punto di vista del marketing e dello sfruttamento della retorica dei “diritti digitali” per sostenere il posizionamento “etico” di prodotti e servizi. Tuttavia, nei fatti, tutto ciò non fa che riaffermare il posizionamento di Big Tech come soggetto intenzionato a decidere cosa costituisca un diritto e cosa no, e a dettare l’agenda agli esecutivi.

Per essere chiari, da un lato la “tensione etica” di OpenAI e Anthropic sui diritti fondamentali si ferma ai confini di Stato, e quindi non vale, per esempio, per i cittadini degli Stati membri della UE che utilizzano i loro servizi. Dall’altro, il fatto che i militari desiderino invadere gli ambiti riservati alla polizia e alla magistratura con progetti di sorveglianza interna è certamente preoccupante. Tuttavia, consentire o meno che oltre a polizia, pubblici ministeri e servizi segreti anche i militari possano gestire programmi di sorveglianza interna è —o dovrebbe essere— compito della magistratura o del parlamento, non certo di un’azienda privata.

Inoltre, come nota a margine, andrebbe considerato che se il problema di Anthropic è la natura del committente, situazioni ibride come quelle della National Security Agency (della quale i militari sono parte strutturale) consentirebbero comunque l’accesso delle stellette a specifiche tecnologie di sorveglianza, anche se il pagamento per il servizio provenisse da un conto corrente diverso da quello del Pentagono.

La guerra e il mito dell’etica tecnologica

Un altro degli argomenti utilizzati da Anthropic per negare l’uso delle proprie tecnologie in ambito militare è stato quello di opporsi all’impiego militare dell’AI, con argomentazioni che superano di slancio il dibattito sulla necessità di un’etica delle armi autonome.

Partiamo dai fondamentali.

Per quanto possa risultare inquietante il concetto, non ci sono dubbi sul fatto che le guerre si vincono uccidendo più nemici di quanti “nostri” cadano in battaglia. Così come non ci sono dubbi che per fare la guerra servano le armi, e che le armi siano destinate a uccidere.

Inoltre, è abbastanza evidente che prevalere in un conflitto richiede (anche) avere a disposizione armi più letali di quelle in possesso dell’avversario. Questo implica che l’industria delle armi ha l’obiettivo di costruire armi sempre più letali da utilizzare concretamente o, come nel caso della bomba atomica e delle armi batteriologiche, da impiegare come deterrente.

Infine, come dimostra la non adesione di alcuni Paesi al trattato sul divieto di utilizzo di mine antiuomo o il suo mancato rispetto, anche il rifiuto “etico” dell’uso di certe armi non è un valore assoluto. Come già detto, le parole definitive sull’argomento sono state pronunciate in tempi non sospetti, alla fine dell’Ottocento, da due giganti della dottrina militare, Carl von Clausewitz e Helmut von Moltke.

Il primo scrisse nel 1832 che “le persone di buon cuore potrebbero ovviamente pensare che esista un modo ingegnoso per disarmare o sconfiggere un nemico senza troppi spargimenti di sangue e potrebbero immaginare che questo sia il vero obiettivo dell’arte della guerra. Per quanto possa sembrare piacevole, si tratta di una convinzione errata da smascherare; la guerra è un’attività talmente pericolosa che gli errori che derivano dalla gentilezza sono i peggiori” mentre il secondo, nel 1861, rincarò la dose affermando che “la più grande gentilezza che si può fare in guerra è farla terminare rapidamente”.

La conclusione è piuttosto evidente: se l’AI consente di creare armi più letali di quelle del “nemico”, non ci sono motivi di principio per evitarne l’uso, a patto che i loro effetti riguardino gli avversari e non chi le utilizza.

Questa considerazione introduce il terzo tema emerso dal comunicato di Anthropic.

Il problema dell’AI in guerra non è l’etica ma l’affidabilità

Secondo Amodei, il vero nodo da sciogliere riguardo all’uso dell’AI nella costruzione di armi autonome è quello del suo attuale (e reale) grado di affidabilità.

“Le armi parzialmente autonome, come quelle utilizzate oggi in ” — scrive Amodei— “sono fondamentali per la difesa della democrazia. Anche le armi completamente autonome … possono rivelarsi fondamentali per la nostra difesa . Tuttavia, oggi i sistemi di IA all’avanguardia non sono sufficientemente affidabili per alimentare armi completamente autonome. Non forniremo consapevolmente un prodotto che metta a rischio i combattenti e i civili americani. … Inoltre, senza un adeguato controllo, non è possibile fare affidamento sulle armi completamente autonome per esercitare il giudizio critico che le nostre truppe altamente addestrate e professionali dimostrano ogni giorno. Devono essere impiegate con adeguate misure di sicurezza, che oggi non esistono.” (enfasi aggiunta).

Di conseguenza, la posizione di Anthropic sull’uso militare dell’AI, anche se non espressamente formulata in questi termini, potrebbe essere interpretata così: non siamo contrari all’impiego dei nostri software per creare armi totalmente autonome se ci fosse la garanzia che queste armi non rappresentino un rischio per chi le utilizza (ma non per chi ne subisce le conseguenze).

Detto in altri termini, e in coerenza con una filosofia della guerra basata sul realismo politico, ciò che conta è che le armi autonome siano sicure per chi “preme il bottone” e poco importa se tra i bersagli ci siano anche i civili, perché in guerra ci sono sempre le casualty o i collateral damage —i danni collaterali. È sufficiente che non siano i “nostri” civili, ma quelli dell’altra parte.

Regolare le macchine o le scelte politiche?

La (quasi) ingenua sincerità delle parole di Amodei mette in evidenza ancora una volta l’errore strutturale in cui inciampano sistematicamente parlamenti e governi di mezzo mondo: pensare di dover regolare gli strumenti invece delle conseguenze derivanti dal loro utilizzo.

Gli accordi per il controllo sulle tecnologie nucleari e quelli sul divieto assoluto dello sviluppo di armi batteriologiche sono stati motivati non da questioni “etiche” o “tecnologiche” ma dalla considerazione che la letalità del loro uso avrebbe garantito la mutually assured destruction o comunque esiti incontrollabili.

Al contrario, quindi, tutto ciò che non raggiunge questa soglia è “liberamente” utilizzabile, comprese le armi autonome controllate dall’AI.

Riformulata in questi termini, la questione generale dell’uso militare dell’AI diventa molto più comprensibile e si riassume in tre domande molto semplici: quanto letali devono essere le armi del nostro arsenale, se dobbiamo progettarle in modo da poterne controllare il funzionamento e quanto dobbiamo preoccuparci del fatto che possano uccidere civili non combattenti, pardon, causare danni collaterali.

I commenti sono chiusi.