Il reale motivo per cui Anthropic rifiuta le armi autonome
Il CEO di Anthropic, Dario Amodei, dopo un incontro con il presidente francese Emmanuel Macron durante l’AI Impact Summit a Nuova Delhi il 19 febbraio 2026.
La notizia del 9 marzo 2026, secondo cui Anthropic avrebbe intrapreso azioni legali contro il Department of War statunitense, segna un nuovo capitolo nella controversia con l’amministrazione Trump.
Il fulcro della disputa è il rifiuto di Anthropic di permettere l’utilizzo delle proprie intelligenze artificiali per la creazione di sistemi di sorveglianza di massa e armi con vari livelli di autonomia, il che ha portato l’amministrazione USA a escludere la Big Tech dai settori più strategici (e quindi profittevoli) degli appalti militari.
Tutela dei diritti o strategia di contrattazione?
L’annuncio dell’intenzione di rivolgersi alle corti, piuttosto che procedere direttamente, sembra più un tentativo di persuadere l’amministrazione a riconsiderare la propria posizione che una vera e propria manifestazione di volontà di ottenere giustizia.
Un elemento che supporta questa teoria è la motivazione contorta con cui Anthropic intende costruire il proprio caso: la violazione della libertà di espressione. Secondo la Big Tech, infatti, l’esclusione dalle commesse militari rappresenterebbe una “rappresaglia” che si traduce in una indebita limitazione del diritto dell’azienda di esprimere liberamente le proprie opinioni.
Saranno i giudici, se la causa verrà effettivamente avviata, a esaminare la questione. Tuttavia, una scelta di questo tipo dimostra come, ancora una volta, i diritti fondamentali siano diventati semplicemente uno strumento per la protezione di interessi (economici) che nulla hanno a che vedere con il motivo per cui sono stati concepiti. Da strumenti per tutelare l’essere umano, sono diventati parte dell’arsenale per la negoziazione di interessi economici.
La novità della situazione non altera, comunque, le tre questioni fondamentali che emergono dal comunicato di Amodei pubblicato sul sito di Anthropic.
Quando Big Tech contratta da pari a pari con i governi
La prima riguarda il tema (non certo inedito, dato che ne abbiamo discusso su queste colonne già nel 2021) di quello che è stato definito neomedievalismo tecnologico, ovvero quel contesto politico in cui lo Stato non è più l’unico detentore del potere sovrano, ma deve condividerlo con Big Tech.
È già accaduto con Apple, che si oppose a progettare iOS in modo da facilitare le indagini delle autorità, con Starlink, che dopo i test nel conflitto ucraino ha ricevuto manifestazioni di interesse dal Giappone, con Meta che è diventato un contractor per la difesa, e con OpenAI che ha imposto ai militari di non utilizzare la propria tecnologia per creare sistemi di sorveglianza di massa.
Il filo conduttore che unisce questi eventi non è tanto il merito delle scelte (alcune aziende hanno optato per supportare le attività militari, altre hanno imposto limitazioni), quanto il fatto che abbiano negoziato (o intendano negoziare) da pari a pari con l’esecutivo non su questioni relative a costi e forniture, ma su aspetti che coinvolgono la sovranità strategica di uno Stato.
La sorveglianza di massa tra retorica e sicurezza
La questione diventa più chiara se viene analizzata in relazione a casi concreti.
Nella negoziazione con il Department of War, sia Anthropic che OpenAI hanno dichiarato di non permettere che le proprie tecnologie vengano utilizzate per costruire sistemi di sorveglianza di massa sui cittadini americani (ma non su quelli di altri Paesi).
Considerata la diffusa sensibilità globale per la “tutela della privacy”, una scelta di questo tipo è sicuramente vantaggiosa dal punto di vista del marketing e dell’utilizzo della retorica dei “diritti digitali” per sostenere il posizionamento “etico” di prodotti e servizi. Tuttavia, nei fatti, tutto ciò non fa che riaffermare il posizionamento di Big Tech come soggetto intenzionato a decidere cosa costituisca un diritto e cosa no, e a dettare l’agenda agli esecutivi.
Per essere chiari, da un lato la “tensione etica” di OpenAI e Anthropic sui diritti fondamentali si limita ai confini nazionali, e quindi non si applica, ad esempio, ai cittadini degli Stati membri dell’UE che utilizzano i loro servizi. Dall’altro, il fatto che i militari vogliano invadere gli ambiti riservati alla polizia e alla magistratura con progetti di sorveglianza interna è senza dubbio preoccupante. Tuttavia, consentire o meno che oltre a polizia, pubblici ministeri e servizi segreti anche i militari possano gestire programmi di sorveglianza interna è —o dovrebbe essere— compito della magistratura o del parlamento, non certo di un’azienda privata.
Inoltre, come nota a margine, andrebbe considerato che se il problema di Anthropic è la natura del committente, situazioni ibride come quelle della National Security Agency (alla quale i militari appartengono in modo strutturale) consentirebbero comunque l’accesso delle stellette a specifiche tecnologie di sorveglianza, anche se il pagamento per il servizio provenisse da un conto corrente diverso da quello del Pentagono.
La guerra e il mito dell’etica tecnologica
Un altro degli argomenti utilizzati da Anthropic per negare l’uso delle proprie tecnologie in ambito militare è stato quello di opporsi all’impiego militare dell’AI, con argomentazioni che superano di slancio il dibattito sulla necessità di un’etica delle armi autonome.
Partiamo dai principi fondamentali.
Per quanto possa risultare inquietante, non ci sono dubbi sul fatto che le guerre si vincono eliminando più nemici di quanti “nostri” cadano in battaglia. Così come non ci sono dubbi che per condurre una guerra siano necessarie le armi, e che le armi servano per uccidere.
Inoltre, è piuttosto evidente che prevalere in un conflitto richiede (anche) di avere a disposizione armi più letali di quelle dell’avversario. Ciò implica che l’industria delle armi ha come obiettivo la costruzione di armi sempre più letali da utilizzare concretamente o, come nel caso della bomba atomica e delle armi batteriologiche, da impiegare come deterrente.
Infine, come dimostra la non adesione di alcuni Paesi al trattato sul divieto di utilizzo di mine antiuomo o il suo mancato rispetto, anche il rifiuto “etico” dell’uso di certe armi non è un valore assoluto. Come già detto, le parole definitive sull’argomento sono state pronunciate in tempi non sospetti, alla fine dell’Ottocento, da due giganti della dottrina militare, Carl von Clausewitz e Helmut von Moltke.
Il primo scrisse nel 1832 che “le persone di buon cuore potrebbero ovviamente pensare che esista un modo ingegnoso per disarmare o sconfiggere un nemico senza troppi spargimenti di sangue e potrebbero immaginare che questo sia il vero obiettivo dell’arte della guerra. Per quanto possa sembrare piacevole, si tratta di una convinzione errata da smascherare; la guerra è un’attività talmente pericolosa che gli errori che derivano dalla gentilezza sono i peggiori” mentre il secondo, nel 1861, rincarò la dose affermando che “la più grande gentilezza che si può fare in guerra è farla terminare rapidamente”.
La conclusione è piuttosto chiara: se l’AI consente di creare armi più letali di quelle del “nemico”, non ci sono motivi di principio per evitarne l’uso, a patto che i loro effetti riguardino gli avversari e non chi le utilizza.
Questa considerazione introduce il terzo tema emerso dal comunicato di Anthropic.
Il problema dell’AI in guerra non è l’etica ma l’affidabilità
Secondo Amodei, il vero nodo da sciogliere riguardo all’uso dell’AI nella creazione di armi autonome è quello del suo attuale (e reale) grado di affidabilità.
“Le armi parzialmente autonome, come quelle utilizzate oggi in Ucraina” — scrive Amodei— “sono fondamentali per la difesa della democrazia. Anche le armi completamente autonome … possono rivelarsi cruciali per la nostra difesa nazionale. Tuttavia, oggi i sistemi di IA all’avanguardia non sono sufficientemente affidabili per alimentare armi completamente autonome. Non forniremo consapevolmente un prodotto che metta a rischio i combattenti e i civili americani. … Inoltre, senza un adeguato controllo, non è possibile fare affidamento sulle armi completamente autonome per esercitare il giudizio critico che le nostre truppe altamente addestrate e professionali dimostrano ogni giorno. Devono essere impiegate con adeguate misure di sicurezza, che oggi non esistono.” (enfasi aggiunta).
Pertanto, la posizione di Anthropic sull’uso militare dell’AI, anche se non espressamente formulata in questi termini, potrebbe essere interpretata così: non siamo contrari all’impiego dei nostri software per creare armi totalmente autonome se ci fosse la garanzia che queste armi non rappresentino un rischio per chi le utilizza (ma non per chi ne subisce gli effetti).
Detto in altri termini, e in coerenza con una filosofia della guerra basata sul realismo politico, ciò che conta è che le armi autonome siano sicure per chi “preme il bottone” e poco importa se tra i bersagli ci siano anche i civili, perché in guerra ci sono sempre le casualty o i collateral damage —i danni collaterali. È sufficiente che non siano i “nostri” civili, ma quelli dell’altra parte.
Regolare le macchine o le scelte politiche?
La (quasi) ingenua sincerità delle parole di Amodei mette in evidenza ancora una volta l’errore strutturale in cui inciampano sistematicamente parlamenti e governi di tutto il mondo: pensare di dover regolare gli strumenti invece delle conseguenze derivanti dal loro utilizzo.
Gli accordi per il controllo sulle tecnologie nucleari e quelli sul divieto assoluto dello sviluppo di armi batteriologiche sono stati motivati non da questioni “etiche” o “tecnologiche” ma dalla considerazione che la letalità del loro uso avrebbe garantito la mutually assured destruction o comunque esiti incontrollabili.
Di converso, quindi, tutto ciò che non raggiunge questa soglia è “liberamente” utilizzabile, incluse le armi autonome controllate dall’AI.
Riformulata in questi termini, dunque, la questione generale dell’uso militare dell’AI diventa molto più comprensibile e si riassume in tre domande molto semplici: quanto letali devono essere le armi del nostro arsenale, se dobbiamo progettarle in modo da poterne controllare il funzionamento e quanto dobbiamo preoccuparci del fatto che possano uccidere civili non combattenti, pardon, causare danni collaterali.
I commenti sono chiusi.