Esiste qualcuno nella Silicon Valley che resiste alle pressioni dell’amministrazione Trump.
Il CEO di Anthropic, Dario Amodei, durante una sessione sull’intelligenza artificiale nel corso dell’incontro annuale del World Economic Forum (WEF) a Davos il 23 gennaio 2025.
È in atto una forte contrapposizione tra il Pentagono e Anthropic, una delle principali imprese nel settore dell’intelligenza artificiale a livello globale. L’azienda, fondata negli Stati Uniti da Dario Amodei, ha scelto di opporsi al Dipartimento della Difesa (ora rinominato Dipartimento della Guerra) per non compromettere alcune clausole etiche relative all’impiego dell’IA in ambito militare.
Secondo quanto riferito da diverse fonti autorevoli a Reuters, Anthropic non accetta che le forze armate possano utilizzare le proprie tecnologie per il targeting autonomo delle armi e per la sorveglianza interna. Questa è una delle regole fondamentali su cui si è costruita la reputazione di Anthropic, che ha fatto dell’etica e della necessità di sviluppare un’IA che non arrechi danno all’umanità uno dei cardini del proprio modello di business. Ritenuto così cruciale che l’azienda potrebbe rischiare di perdere contratti federali per un valore di 200 milioni a causa del conflitto in corso.
A cosa si oppone Anthropic, cosa vuole il Pentagono
I dialoghi tra il Dipartimento della Guerra — la nuova denominazione è stata una richiesta esplicita dell’amministrazione Trump — e la società di San Francisco hanno raggiunto un punto critico. Anthropic sottolinea la necessità di mantenere un rigoroso controllo umano nelle operazioni militari, temendo che l’intelligenza artificiale possa essere utilizzata per monitorare cittadini americani o facilitare attacchi letali senza la supervisione diretta degli operatori.
La posizione del Pentagono, espressa in un recente memorandum strategico, è diametralmente opposta: i vertici militari affermano di avere il diritto di impiegare tecnologie commerciali indipendentemente dalle “policy” d’uso delle aziende produttrici, a condizione che vengano rispettate le normative federali. Un confronto che rappresenta un test fondamentale per i rapporti tra la Silicon Valley e la difesa nazionale.
Anthropic, una scelta oggi controcorrente
La decisione di Anthropic è una posizione controcorrente. Da mesi, il mondo osserva un nuovo e controverso accordo tra l’amministrazione americana guidata da Donald Trump e i grandi gruppi tecnologici. Anthropic si sta opponendo a una pratica che molte delle sue concorrenti considerano ormai scontata: fornire le migliori tecnologie sviluppate al governo. È il caso di Palantir e dell’app Élite creata per geolocalizzare e rintracciare nel territorio di Minneapolis gli immigrati irregolari. Ma riguarda anche tutti i contratti stipulati da Big Tech con il governo, risultato del “Big Beautiful Deal” voluto da Trump, che ha già fruttato a Big Tech circa 22 miliardi di dollari.
Il CEO di Anthropic, Dario Amodei, non ha mai nascosto le sue preoccupazioni. Né per l’IA né per l’andamento pericoloso delle violenze della polizia durante le manifestazioni a Minneapolis. Ha affermato che l’IA dovrebbe supportare la difesa “senza rendere gli Stati Uniti simili agli avversari autocratici”. La cautela della startup è alimentata anche dalle tensioni sociali nel Paese, segnate dai recenti episodi di violenza durante le proteste a Minneapolis, che hanno riacceso il dibattito sull’uso della forza da parte dello Stato.
Big Tech intanto continua a lavorare col Pentagono e il governo
Nonostante il coinvolgimento di altri giganti come Google, OpenAI e xAI di Elon Musk in programmi simili, la situazione di Anthropic rimane unica: i suoi modelli sono infatti progettati per evitare danni e solo un intervento diretto dei programmatori dell’azienda potrebbe “riadattarli” per gli scopi richiesti dai militari, rendendo così la cooperazione della startup tecnicamente indispensabile per il governo.
Fondata nel 2021 da ex ricercatori di OpenAI (tra cui i fratelli Amodei) che hanno lasciato l’azienda in polemica con la gestione di Sam Altman, Anthropic si è distinta come la società “etica” concentrata sulla sicurezza dell’IA. Grazie a miliardi di investimenti da Amazon e Google, ha lanciato Claude, un modello concepito per essere più controllabile e allineato ai valori umani rispetto ai suoi concorrenti. Oggi ha un valore di circa 350 miliardi. Nel 2026 potrebbe quotarsi in borsa.
@arcangelo.rociola
I commenti sono chiusi.