Esistono individui a Silicon Valley che resistono alle pressioni di Trump.

Esistono individui a Silicon Valley che resistono alle pressioni di Trump. 1

Il CEO di Anthropic, Dario Amodei, durante una sessione sull’intelligenza artificiale nel corso dell’incontro annuale del World Economic Forum (WEF) a Davos il 23 gennaio 2025. 

Si è aperto un conflitto diretto tra il Pentagono e Anthropic, una delle principali aziende di intelligenza artificiale a livello globale. L’impresa, fondata negli Stati Uniti da Dario Amodei, ha scelto di opporsi al Dipartimento della Difesa (ora rinominato Dipartimento della Guerra) per non concedere su alcune questioni etiche relative all’impiego dell’IA in operazioni militari.

Secondo quanto riportato da varie fonti affidabili a Reuters, Anthropic non è disposta ad accettare che l’esercito utilizzi le tecnologie della società per il targeting autonomo delle armi e per la sorveglianza interna. Questa regola fondamentale ha contribuito a costruire la reputazione di Anthropic, che ha fatto dell’etica e della necessità di sviluppare un’IA che non arrechi danno all’umanità uno dei suoi principi cardine. È considerata così centrale che l’azienda rischia di perdere contratti federali per un valore di 200 milioni di dollari a causa della situazione attuale di stallo.

Cosa contesta Anthropic e quali sono le richieste del Pentagono

I colloqui tra il Dipartimento della Guerra — il cui nuovo nome è stato adottato su richiesta dell’amministrazione — e la società di San Francisco sono arrivati a un punto critico. Anthropic insiste sulla necessità di mantenere un rigoroso controllo umano nelle operazioni militari, temendo che l’intelligenza artificiale possa essere utilizzata per monitorare i cittadini americani o per facilitare attacchi letali senza la supervisione diretta degli operatori.

La posizione del Pentagono, chiarita in un recente memorandum strategico, è diametralmente opposta: i leader militari rivendicano il diritto di impiegare tecnologie commerciali indipendentemente dalle “politiche” d’uso delle aziende produttrici, a condizione che siano rispettate le normative federali. Questo confronto rappresenta un test cruciale per le relazioni tra Silicon Valley e la difesa .

La posizione di Anthropic, oggi in controtendenza

La decisione di Anthropic è decisamente controcorrente. Da mesi il mondo osserva un nuovo e controverso accordo tra l’amministrazione americana sotto Donald Trump e i grandi nomi della tecnologia. Anthropic si oppone a ciò che ormai molte delle sue concorrenti considerano scontato: fornire le più avanzate tecnologie sviluppate al governo. È il caso di Palantir e dell’app Élite creata per geolocalizzare e rintracciare gli immigrati irregolari a Minneapolis. Ma si tratta anche di tutti i contratti stipulati da Big Tech con il governo, frutto del “Big Beautiful Deal” voluto da Trump, che finora ha generato circa 22 miliardi di dollari per Big Tech.

Il CEO di Anthropic, Dario Amodei, ha sempre manifestato le sue preoccupazioni. Né per l’IA né per l’andamento preoccupante delle violenze della polizia durante le manifestazioni a Minneapolis. Ha affermato che l’IA dovrebbe sostenere la difesa “senza far diventare gli Stati Uniti simili ai regimi autocratici”. La prudenza della startup è rafforzata anche dalle tensioni sociali nel Paese, accentuate dai recenti episodi di violenza durante le a Minneapolis, che hanno riacceso il dibattito sull’uso della forza da parte dello Stato.

Nel frattempo, Big Tech continua a collaborare con il Pentagono e il governo

Nonostante il coinvolgimento di altri giganti come Google, OpenAI e la xAI di Elon Musk in programmi simili, il caso di Anthropic rimane singolare: i suoi modelli sono infatti addestrati per evitare danni e solo un intervento diretto dei programmatori dell’azienda potrebbe “riadattarli” per gli scopi richiesti dai militari, rendendo quindi la cooperazione della startup tecnicamente necessaria per il governo.

Fondata nel 2021 da ex ricercatori di OpenAI (tra cui i fratelli Amodei) che hanno lasciato l’azienda in polemica con la gestione di Sam Altman, Anthropic si è distinta come la società “etica” focalizzata sulla sicurezza dell’IA. Grazie a ingenti investimenti da Amazon e Google, ha lanciato Claude, un modello progettato per essere più controllabile e allineato ai valori umani rispetto ai concorrenti. Oggi ha un valore di circa 350 miliardi. Nel 2026 potrebbe quotarsi in borsa.

@arcangelo.rociola

I commenti sono chiusi.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More