Anthropic denuncia il Pentagono: Claude escluso dalle forze armate statunitensi.
Dario Amodei, CEO di Anthropic
Anthropic, una delle aziende leader nel campo dell’intelligenza artificiale e sviluppatrice del modello Claude, tra i primi ad essere impiegati nelle reti classificate dell’esercito statunitense per scopi militari, ha deciso di fare causa al Dipartimento della Guerra degli Stati Uniti.
La compagnia sotto la direzione di Dario Amodei ha scelto di avviare un’azione legale in risposta alla scelta del Pentagono di etichettare la sua intelligenza artificiale come un “rischio per la catena di approvvigionamento”, una classificazione di solito riservata a imprese straniere associate a rivali geopolitici.
Secondo Anthropic, il divieto imposto dal governo Usa costituisce una rappresaglia politica e una violazione dei diritti costituzionali: è la prima volta che uno strumento di tale entità viene utilizzato contro un’impresa tecnologica americana.
Il conflitto su sorveglianza di massa e armi autonome
La disputa legale nasce da un conflitto contrattuale riguardante i limiti d’uso dell’intelligenza artificiale in ambito bellico.
Nel contratto da 200 milioni di dollari firmato con il governo statunitense nel luglio 2025, Anthropic ha richiesto l’inserimento di clausole che vietano l’utilizzo del suo modello Claude per la sorveglianza di massa dei cittadini americani o per lo sviluppo di sistemi d’arma letali completamente autonomi, ovvero macchine capaci di uccidere senza intervento umano diretto.
Il Pentagono ha invece chiesto la rimozione di tali limitazioni, insistendo affinché i suoi sistemi possano essere utilizzati per “ogni scopo lecito”.
Il successivo rifiuto di Anthropic di concedere un accesso illimitato ha portato il Segretario della Guerra, Pete Hegseth, a formalizzare il divieto, spiegando che nessun civile o fornitore esterno può stabilire le regole d’ingaggio per le forze armate americane.
Anche il presidente Trump ha ordinato alle agenzie federali di interrompere l’uso di Claude, sebbene abbia concesso al Pentagono sei mesi per dismettere gradualmente un prodotto profondamente integrato nei sistemi militari classificati e di cruciale importanza nella guerra in Iran.
Le conseguenze del divieto federale
Essere etichettati come rischio per la catena di approvvigionamento del governo statunitense può avere effetti devastanti per un’impresa.
Tale designazione non si limita a rescindere i contratti diretti con l’amministrazione federale, ma obbliga tutte le aziende che collaborano con il Pentagono a interrompere qualsiasi rapporto commerciale con il soggetto sanzionato.
Anthropic sostiene nei propri atti legali che il Dipartimento della Guerra abbia superato i limiti delle proprie competenze legali, ignorando le garanzie del giusto processo: queste ultime richiederebbero all’esecutivo di fornire prove concrete di un rischio tecnico o per la sicurezza nazionale prima di adottare una misura così drastica.
Mentre contesta la decisione del Pentagono, Anthropic sottolinea che la sanzione dell’amministrazione Trump è limitata e colpisce solo i contractor militari che utilizzano Claude per lavori del Dipartimento della Guerra.
Chiarire questo punto è cruciale per la società di San Francisco: la maggior parte dei suoi 14 miliardi di dollari di fatturato previsti per quest’anno proviene da aziende e agenzie governative che impiegano Claude per le loro attività, in particolare nella scrittura di codice di programmazione.
Oltre 500 clienti pagano ad Anthropic almeno 1 milione di dollari all’anno per Claude, secondo le informazioni emerse durante un recente round di investimenti che ha valutato l’azienda a 380 miliardi di dollari.
Libertà di espressione e rappresaglia politica
Uno degli aspetti più complessi della causa riguarda la violazione del Primo Emendamento, che tutela la libertà di espressione.
I legali di Anthropic affermano che la classificazione dell’azienda come minaccia sia una punizione per le posizioni pubbliche espresse dall’azienda riguardo alla regolamentazione dell’intelligenza artificiale in ambito bellico.
In questo contesto, le politiche di sicurezza di Anthropic vengono presentate come una forma di espressione protetta, che il governo starebbe cercando di soffocare per imporre una visione ideologica differente.
Il ricorso presentato presso la Corte d’Appello del Distretto di Columbia evidenzia come il Pentagono non abbia cercato soluzioni meno restrittive per tutelare la sicurezza nazionale, preferendo invece una misura radicale che mira a compromettere la stabilità economica della società.
“Anthropic si rivolge alla magistratura come ultima istanza per far valere i propri diritti e porre fine all’illegittima campagna di ritorsione dell’Esecutivo”, si legge nei documenti legali presentati dall’azienda.
La causa intentata da Anthropic menziona anche altre agenzie federali, tra cui i dipartimenti del Tesoro e dello Stato, dopo che i rispettivi funzionari hanno ordinato ai dipendenti di smettere di utilizzare l’intelligenza artificiale della società guidata da Amodei.
Il nuovo equilibrio del potere tecnologico
La questione si inserisce in un contesto geopolitico e industriale in rapida evoluzione.
Mentre Anthropic si opponeva alle richieste del Pentagono, altre aziende del settore, come OpenAI e xAI, hanno colto l’opportunità per firmare nuovi accordi con le forze armate, offrendo condizioni di collaborazione meno restrittive.
Il CEO di OpenAI, Sam Altman, ha inizialmente espresso solidarietà ad Anthropic e Amodei. Successivamente ha affermato che “è dannoso per la società” quando le aziende non rispettano le norme democratiche perché “non apprezzano chi detiene il potere”.
Altman si riferisce a un memo di 1.600 parole inviato da Amodei ai dipendenti di Anthropic nelle ore successive al divieto federale, poi ottenuto da The Information.
Nel documento, Amodei non risparmia critiche. Definisce i messaggi pubblici di OpenAI “bugie belle e buone”, accusando Altman di essersi finto pacificatore e mediatore in una situazione che aveva contribuito a creare. E menziona la donazione da 25 milioni di dollari fatta dal presidente di OpenAI, Greg Brockman, a Trump, in contrasto con la scelta di Anthropic di non fornire finanziamenti politici né di offrire quelle che il CEO di Anthropic definisce “lodi in stile dittatore” all’amministrazione.
I commenti sono chiusi.