Il Pentagono richiede un’intelligenza artificiale illimitata per usi militari, ma Anthropic rifiuta.
Il Pentagono minaccia di interrompere la collaborazione con la compagnia di intelligenza artificiale Anthropic a causa di significativi disaccordi sulle limitazioni d’uso dei modelli IA utilizzati.
Il governo richiede un accesso illimitato per qualsiasi scopo legittimo, comprese le operazioni militari e di intelligence, mentre Anthropic si oppone, sostenendo la necessità di mantenere salvaguardie etiche contro l’automazione letale e la sorveglianza di massa.
Le tensioni sono aumentate dopo il presunto impiego del modello Claude nell’operazione militare che ha portato, nella notte tra il 2 e il 3 gennaio 2026, alla cattura del presidente del Venezuela Nicolas Maduro, evidenziando un profondo conflitto ideologico tra sicurezza nazionale e principi aziendali.
OpenAI e Google si mostrano invece più disponibili ad accettare le richieste dei vertici militari.
Nonostante i rischi di una rottura, il dipartimento della difesa statunitense riconosce che sostituire le capacità avanzate di Anthropic nei sarà un compito arduo.
Il Ceo di Anthropic Dario Amodei esprime preoccupazioni più ampie, convinto che le IA debbano supportare la difesa “senza rendere gli Stati Uniti simili ai regimi autocratici”.
Il contratto tra il dipartimento della difesa americano e Anthropic vale 200 milioni di dollari (169 milioni di euro), ma il conflitto culturale e ideologico pesa di più.
Cosa desidera il Pentagono
La difesa americana richiede totale libertà d’azione nell’utilizzo dei modelli IA, chiedendo quindi la rimozione delle restrizioni etiche e di sicurezza che tutte le aziende, inclusa Anthropic, impongono agli utenti.
In particolare, il Pentagono intende utilizzare i modelli IA per perseguire quelli che definisce “tutti gli scopi leciti” secondo le leggi statunitensi. Ciò include la raccolta di informazioni (intelligence), lo sviluppo di armamenti e il supporto alle operazioni militari.
In aggiunta, la difesa Usa desidera integrare i modelli IA nelle proprie reti e richiede un’affidabilità operativa continua. Il Pentagono teme che le restrizioni imposte dagli sviluppatori di prodotti IA possano ostacolare le operazioni militari più cruciali.
In altre parole, il Pentagono desidera che le IA diventino strumenti che non contestino gli ordini impartiti dai vertici militari basandosi su principi etici o ideologici.
Le possibili ripercussioni
Si aprono scenari sui quali è opportuno riflettere. Un compito che svolgiamo con il supporto di Gianluca Giannini, professore ordinario di Etica e Intelligenza artificiale presso l’Università degli Studi di Napoli Federico II.
Il professor Giannini è anche coordinatore scientifico della Task Force Human&Future, che affronta ampiamente le questioni legate alla transizione digitale.
Professor Giannini, quali sono i rischi associati all’autorizzazione dell’uso militare di modelli IA “per tutti gli scopi leciti”?
«Desidero sottolineare che il primo problema è già insito nell’aggettivo “lecito”. Di solito, specialmente in un contesto militare, “lecito” tende a significare “non esplicitamente vietato da una norma, da un trattato o da una direttiva”. Tuttavia, la legalità, da sola, non corrisponde alla legittimità democratica né all’accettabilità etica.
Quando “lecito” diventa un via libera per un’autorizzazione generica a fini non definiti, si crea un precedente: l’IA smette di essere una tecnologia da gestire per scopi specifici e diventa una capacità da applicare ovunque non ci sia un divieto esplicito. Il rischio è che la soglia si sposti per inerzia: inizialmente supporto logistico e analisi documentale, poi classificazioni operative, poi raccomandazioni su priorità e obiettivi, fino ad automatismi che, una volta integrati nella catena, risultano difficili da disattivare.
Questa dinamica rappresenta la tipica Mission Creep: non è necessaria una decisione esplicita di espansione, basta che l’infrastruttura esista e che l’uso successivo appaia come un semplice passo in più. Da ciò è possibile identificare quattro tipologie di rischi».
Quali sono?
«Il primo riguarda l’opacità decisionale e il trasferimento di responsabilità. Anche quando non “decide” l’IA, essa orienta, suggerendo percorsi, costruendo graduatorie di rischio, semplificando la complessità in punteggi e categorie. In Intelligence e Targeting, questa pre-decisione può addirittura diventare delega psicologica: l’output arriva con l’aura del calcolo e diventa una giustificazione. Tuttavia, la responsabilità morale e giuridica non può essere delegata a un modello e ogni passaggio di mediazione (dal dato alla raccomandazione) aggiunge un punto in cui l’errore può diventare sistemico, specialmente quando i dati sono incompleti o distorti.
Il secondo rischio: normalizzazione della sorveglianza. Se la regola è “tutto ciò che è lecito”, strumenti concepiti per scenari esterni possono migrare verso l’interno, poiché le infrastrutture vengono riutilizzate e i dati circolano. L’eccezione securitaria rischia di diventare un’architettura permanente: watchlist, scoring, correlazioni che, una volta introdotte, faticano a essere eliminate.
Il terzo rischio: escalation e corsa agli armamenti algoritmici. Questa formula invia un messaggio globale: l’etica è negoziabile.
Il quarto e ultimo grande rischio: il nodo del dato. In ambito militare, i modelli operano sui dati, e una clausola del tipo “tutti gli scopi leciti” finisce per autorizzare implicitamente pipeline [la sequenza che trasforma i dati grezzi in dati utili a modelli IA o a sistemi decisionali, ndr] dove il dato viene prodotto, messo in flusso, detenuto e riutilizzato.
È qui che serve un nuovo concetto di privacy, non solo come tutela dell’identità, ma come governo della traiettoria del dato, delle sue trasformazioni e dei passaggi di mano, inclusa la creazione di categorie e predizioni che possono colpire persone reali. Senza questa cornice, “lecito” rischia di significare semplicemente “tecnicamente possibile e burocraticamente coperto” e in un contesto come questo rappresenta una soglia pericolosamente bassa».
Qual è il confine realistico tra “sicurezza” e “controllo” quando si parla di IA militari?
«Il confine non è una linea netta, è un susseguirsi di zone di soglia. La sicurezza cerca rapidità, adattamento, capacità di anticipare. Il controllo, nel senso politico del termine, cerca invece estensione e pervasività attraverso la possibilità di monitorare, classificare, intervenire.
L’IA ha la capacità di potenziare entrambe le spinte, ovvero può aumentare tanto la sicurezza quanto, allo stesso tempo, rendere più facile un controllo diffuso su popolazioni, corpi, comportamenti. Pertanto, la domanda più concreta non è “dove passa il confine” ma: quali condizioni impediscono che la sicurezza diventi un pretesto per costruire infrastrutture di controllo permanente?».
Già, quali?
«Un primo criterio potrebbe essere la finalità verificabile. La sicurezza implica la riduzione di un rischio specifico e circoscritto, mentre il controllo comporta un’espansione indefinita della capacità di sorvegliare e classificare. Se non posso descrivere con precisione quale rischio sto riducendo, su quale popolazione e per quanto tempo, mi trovo già in una zona grigia.
Un secondo criterio potrebbe essere la proporzionalità. Non una proporzionalità astratta, ma misurabile. Riguardo all’impiego dell’IA in ambito militare, la proporzionalità riguarda anche la raccolta e l’aggregazione dei dati.
Quanta intrusione informativa stiamo accumulando per ottenere quale incremento operativo? Se non si misura, diventa illimitata. E attenzione: l’accumulo non è solo quantità, è anche qualità, poiché un dato incrociato con altri dati cambia natura.
Un terzo criterio è, ovviamente, la governabilità tecnica: tracciabilità, log, audit, controlli d’accesso, test avversariali continui, procedure di arresto, e soprattutto la possibilità di ricostruire ex post il percorso che ha portato a una raccomandazione.
In contesti ad alto impatto, Human in the Loop non può essere solo uno slogan. Deve significare che l’umano mantiene competenza, potere di veto e responsabilità nominativa.
Se l’operatore è ridotto a un timbro finale sotto stress, la soglia tra sicurezza e controllo si sposta senza che nessuno se ne accorga, poiché l’automazione diventa abitudine e l’abitudine diventa norma».
E poi?
«Un quarto criterio potrebbe essere la separazione dei poteri informazionali: chi detiene il dato, chi lo trasforma, chi integra il modello, chi decide, chi risponde. In un ecosistema dove agenzie, contractor e laboratori condividono infrastrutture, il rischio è che il controllo diventi diffuso e quindi irresponsabile, poiché nessuno decide tutto, ma tutti abilitano qualcosa. Quando si assume “tutti gli scopi leciti” come lasciapassare generale, il confine tende a dissolversi: la sicurezza diventa l’argomento che giustifica qualunque accumulo di potere informazionale.
A quel punto la domanda non è più se siamo più sicuri, ma se stiamo costruendo un futuro in cui la società è più vulnerabile proprio perché è più controllabile, e in cui la fiducia pubblica si erode perché non riesce più a distinguere dove finisce l’eccezione e dove inizia la regola. In questo senso, la disputa attuale rappresenta un test: non su “quanto è potente” un modello, ma su chi ha l’ultima parola nel definire i limiti».
Il Pentagono ha alternative credibili se decidesse davvero di interrompere la collaborazione con Anthropic?
«Alternative ci sono, ma non sono indolori né immediate. In contesti governativi e, a maggior ragione, classificati, non si tratta di sostituire un modello come si sostituisce un’app: contano integrazione, sicurezza della supply chain, personalizzazione su domini specifici, procedure operative, addestramento del personale e dipendenza dai dati.
Quando hai investito a lungo nella costruzione di pipeline, connettori, agenti, policy interne e governance attorno a un sistema, il costo di switch è elevato e il rischio di regressione operativa non è trascurabile.
Detto ciò, il mercato oggi offre diverse opzioni. La prima è rivolgersi ad altri grandi laboratori che già collaborano con istituzioni pubbliche e che potrebbero essere disposti ad accettare standard d’uso più ampi. Questa è la soluzione più semplice, ma anche quella che crea il precedente più pericoloso: se la condizione per ottenere contratti strategici diventa la disponibilità all’impiego più estensivo, la competizione non premia la qualità delle garanzie, ma la flessibilità senza confini.
In altre parole, la scelta del fornitore rischia di diventare un referendum implicito su quanta etica siamo disposti a contrattare.
Una seconda strada passa attraverso fornitori che integrano modelli in piattaforme operative complete, offrendo pacchetti in cui il modello è solo un componente di un sistema più ampio. Qui il tema diventa chi controlla realmente l’insieme, con quali audit e con quale trasparenza almeno sui processi.
Una terza via potrebbe essere l’uso di modelli Open source o semi-Open per compiti specifici: analisi documentale, sintesi, supporto al codice, procedure informative standardizzate. Possono funzionare, ma per compiti ad alto impatto aumentano i trade-off su affidabilità, sicurezza e controllabilità.
Vi è poi una quarta possibilità, più strutturale, che auspicherei: sviluppo interno o co-sviluppo pubblico. Questo riduce dipendenza e incertezze, ma richiede tempi lunghi, infrastrutture dedicate e competenze rare. E soprattutto porta al centro la questione del dato: quali dataset si utilizzano, come si costruiscono, quanto si trattengono, come si riutilizzano.
Qui la domanda è sempre la stessa: non solo “possiamo farlo?”, ma “a quali condizioni”, “con quali limiti e con quali controlli democratici?».
Potrebbe emergere un nuovo equilibrio tra esigenze militari e limiti etici imposti dai laboratori IA come Anthropic, Google o OpenAI?
«Un equilibrio può emergere, ma non da formule generiche. La formula “tutti gli scopi leciti” è allettante perché semplifica, poiché, come accennavo, scarica la complessità sulla legge e sulle interpretazioni interne.
Ma proprio la semplificazione è il problema, perché nel dominio dell’IA lo sviluppo tecnico avanza più rapidamente delle norme e tende a trasformare in prassi ciò che prima era al massimo eccezione, se non addirittura impensabile.
Un equilibrio credibile deve invece avere la forma di garanzie verificabili: vincoli che reggano nel tempo anche quando aumenta la pressione geopolitica e quando l’emergenza richiede scorciatoie.
In quest’ottica, un pilastro non negoziabile deve consistere in un sistema di licenze per classi di impiego, proprio per evitare che una clausola generale (“tutti gli scopi leciti”) diventi un lasciapassare indistinto. L’IA non può e non deve diventare un modo elegante per rendere anonima la decisione. È mia convinzione che la domanda etica sia inevitabilmente politica e, in fondo, antropologica: vogliamo che l’IA aumenti capacità e sicurezza senza trasformare la democrazia in un sistema più controllabile e meno contestabile?
Guardando al futuro, il punto è evitare che la tecnologia diventi una scorciatoia che cambia la forma delle istituzioni. I laboratori, per quanto sospettosamente privati, impongono limiti anche perché conoscono la fragilità dei modelli in condizioni reali.
Un equilibrio richiede che la sicurezza non coincida con la rimozione dei freni, ma con maggiore controllabilità: abilitazioni per ruoli autorizzati, monitoraggio degli usi anomali, criteri chiari di escalation quando il modello non è sicuro».
Questa frattura potrebbe accelerare la creazione di modelli IA “military–grade” sviluppati direttamente da uno Stato?
«Certamente sì, è una possibilità concreta, e la frizione attuale la rende decisamente plausibile.
Quando la dipendenza dal privato diventa instabile, lo Stato tende a ricostru
I commenti sono chiusi.