Anthropic denuncia il Pentagono: Claude escluso dalle forze armate statunitensi.

Anthropic denuncia il Pentagono: Claude escluso dalle forze armate statunitensi. 1

Dario Amodei, CEO di Anthropic 

Anthropic, una delle aziende leader nel campo dell’intelligenza artificiale e sviluppatrice del modello Claude, tra i primi ad essere impiegati nelle reti classificate dell’esercito statunitense per scopi militari, ha deciso di citare in giudizio il Dipartimento della Guerra degli Stati Uniti.

La compagnia sotto la direzione di Dario Amodei ha scelto di avviare un’azione legale in risposta alla decisione del Pentagono di classificare la sua intelligenza artificiale come un “rischio per la catena di approvvigionamento”, una categorizzazione di solito riservata a imprese straniere collegate a rivali geopolitici.

Secondo Anthropic, il divieto imposto dal governo costituisce una rappresaglia politica e una violazione dei diritti costituzionali: è la prima volta che uno strumento di tale entità viene utilizzato contro un’impresa tecnologica americana.

Il conflitto su sorveglianza di massa e armi autonome

La controversia legale nasce da una disputa contrattuale riguardante i limiti d’uso dell’intelligenza artificiale in ambito bellico.

Nel contratto da 200 milioni di dollari firmato con il governo statunitense a luglio 2025, Anthropic ha richiesto l’inserimento di clausole che vietano l’uso del suo modello Claude per la sorveglianza di massa dei cittadini americani o per lo sviluppo di sistemi d’arma letali completamente autonomi, ovvero macchine capaci di uccidere senza intervento umano diretto.

Il Pentagono ha invece chiesto la rimozione di tali limitazioni, insistendo affinché i suoi sistemi possano essere utilizzati per “ogni scopo lecito”.

Il conseguente rifiuto di Anthropic di concedere un accesso illimitato ha portato il Segretario della Guerra, Pete Hegseth, a formalizzare il divieto, spiegando che nessun civile o fornitore esterno può stabilire le regole d’ingaggio per le forze armate americane.

Anche il presidente ha ordinato alle agenzie federali di interrompere l’uso di Claude, sebbene abbia concesso al Pentagono sei mesi per dismettere gradualmente un prodotto profondamente integrato nei sistemi militari classificati e di cruciale importanza nella guerra in Iran.

Le conseguenze del divieto federale

Essere classificati come rischio per la catena di approvvigionamento del governo statunitense può avere effetti devastanti per un’azienda.

Tale designazione non si limita a rescindere i contratti diretti con l’amministrazione federale, ma costringe tutte le imprese che collaborano con il Pentagono a interrompere qualsiasi rapporto commerciale con il soggetto sanzionato.

Anthropic sostiene nei propri atti legali che il Dipartimento della Guerra abbia superato i limiti delle proprie competenze legali, ignorando le garanzie del giusto processo: queste ultime impongono all’esecutivo di fornire prove concrete di un rischio tecnico o per la sicurezza prima di adottare una misura così drastica.

Mentre contesta la decisione del Pentagono, Anthropic evidenzia che la sanzione dell’amministrazione Trump è limitata e colpisce solo i contractor militari che utilizzano Claude per lavori del Dipartimento della Guerra.

Chiarire questo aspetto è cruciale per la società di San Francisco: la maggior parte dei suoi 14 miliardi di dollari di fatturato previsti per quest’anno proviene da aziende e agenzie governative che utilizzano Claude per le loro attività, in particolare per la scrittura di codice di programmazione.

Oltre 500 clienti pagano ad Anthropic almeno 1 milione di dollari all’anno per Claude, secondo le informazioni emerse durante un recente round di investimenti che ha valutato l’azienda a 380 miliardi di dollari.

Libertà di espressione e rappresaglia politica

Uno degli aspetti più complessi della causa riguarda la violazione del Primo Emendamento, che tutela la libertà di espressione.

I legali di Anthropic affermano che la classificazione dell’azienda come minaccia sia una punizione per le posizioni pubbliche espresse dall’azienda riguardo alla regolamentazione dell’intelligenza artificiale in ambito bellico.

In questo contesto, le politiche di sicurezza di Anthropic vengono presentate come una forma di espressione protetta, che il governo starebbe cercando di soffocare per imporre una visione ideologica differente.

Il ricorso presentato alla Corte d’Appello del Distretto di Columbia sottolinea come il Pentagono non abbia cercato soluzioni meno restrittive per tutelare la sicurezza nazionale, preferendo invece una misura radicale che mira a danneggiare la stabilità economica della società.

“Anthropic si rivolge alla magistratura come ultima istanza per far valere i propri diritti e porre fine all’illegittima campagna di ritorsione dell’Esecutivo”, si legge nei documenti legali presentati dall’azienda.

La causa intentata da Anthropic menziona anche altre agenzie federali, tra cui i dipartimenti del Tesoro e dello Stato, dopo che i rispettivi funzionari hanno ordinato ai dipendenti di smettere di utilizzare l’intelligenza artificiale della società guidata da Amodei.

Il nuovo equilibrio del potere tecnologico

La questione si colloca in un contesto geopolitico e industriale in rapida evoluzione.

Mentre Anthropic si opponeva alle richieste del Pentagono, altre aziende del settore, come OpenAI e xAI, hanno colto l’opportunità per siglare nuovi accordi con le forze armate, offrendo condizioni di collaborazione meno restrittive.

Il CEO di OpenAI, Sam Altman, ha inizialmente espresso solidarietà ad Anthropic e Amodei. Successivamente ha affermato che “è dannoso per la società” quando le aziende non rispettano le norme democratiche perché “non gradiscono chi è al potere”.

Altman si riferisce a un memo di 1.600 parole inviato da Amodei ai dipendenti di Anthropic nelle ore successive al divieto federale, poi ottenuto da The Information.

Nel documento, Amodei non risparmia critiche. Definisce i messaggi pubblici di OpenAI “bugie belle e buone”, accusando Altman di essersi finto pacificatore e mediatore in una situazione che aveva contribuito a creare. E menziona la donazione da 25 milioni di dollari fatta dal presidente di OpenAI, Greg Brockman, a Trump, in contrasto con la scelta di Anthropic di non elargire finanziamenti politici né di offrire quelle che il CEO di Anthropic definisce “lodi in stile dittatore” all’amministrazione.

I commenti sono chiusi.