Anthropic non è ciò che appare. Non come si tende a farci credere.
Leggi in app
Da circa sette giorni, la disputa tra Anthropic e il Department of War degli Stati Uniti è al centro dell’attenzione mediatica globale. Sono state scritte molte analisi sull’argomento, ma l’azione legale annunciata e successivamente avviata dall’azienda offre elementi concreti per comprendere la natura della controversia e, in generale, le problematiche attuali legate all’uso dell’AI (non solo) nel campo militare.
Le affermazioni di Anthropic
Riassumiamo i fatti come esposti da Anthropic nel proprio “atto di accusa” contro l’amministrazione Trump.
Fatto numero 1: Anthropic ha creato delle AI seguendo le indicazioni delle agenzie responsabili della sicurezza nazionale (Anthropic has also developed specialized “Claude Gov” models tailored specifically for the national security context. These models have been built based on direct feedback from national security agencies to address real-world requirements, like improved handling of classified information, enhanced proficiency in critical languages, and sophisticated analysis of cybersecurity data. Claude Gov models undergo rigorous safety testing consistent with Anthropic’s commitment to responsible AI.)
Fatto numero 2: i modelli Claude Gov sono progettati con minori limitazioni (ma quanto minori?) rispetto a quelli disponibili per i clienti “normali”. Pertanto, ad esempio, potrebbero essere stati rimossi i vincoli che impediscono all’AI di elaborare piani d’attacco, analisi di vulnerabilità critiche o supporto tattico letale, normalmente vietati nelle versioni commerciali (si legge nel ricorso: To make Claude more useful for the military and intelligence components of the federal government, Anthropic does not impose the same restrictions on the military’s use of Claude as it does on civilian customers.)
Fatto numero 3: Anthropic permette l’utilizzo della propria AI per la creazione di armi, a condizione che ci sia un operatore umano che le attivi (scrive Anthropic: By its terms, the Policy has always prohibited the use of Anthropic’s services for lethal autonomous warfare without human oversight and surveillance of Americans en masse), e fatto numero 4, consente la realizzazione di programmi di sorveglianza di massa su chiunque, a patto che non si tratti di cittadini americani, e su cittadini statunitensi, purché non en masse.
Fatto numero 5: Anthropic non esclude che Claude possa, in futuro, avere la capacità di uccidere e sorvegliare autonomamente, ma non è detto che intenda farlo (Anthropic did not develop Claude (or the specialized Claude Gov models) to deploy lethal autonomous warfare without human oversight. Claude has not been trained or tested for that use. At least at present, Claude is simply not capable of performing such tasks responsibly without human oversight.)
Fatto numero 6: come nel caso delle armi autonome, anche per quanto riguarda la sorveglianza di massa Claude può commettere errori a un livello tale da non renderlo (ancora) idoneo al funzionamento senza supervisione (Second, Anthropic is unwilling to agree to Claude’s use for mass surveillance of Americans. … And surveillance conducted using AI poses significantly greater potential to make mistakes—and to amplify the effect of any mistakes—than traditional techniques.)
Cosa significano le affermazioni di Anthropic
Se lette in modo coordinato e tradotte dal linguaggio legale a quello comune, le affermazioni di Anthropic mettono in evidenza chiaramente alcuni aspetti di strategia economica e geopolitica tecnologica che dovrebbero essere considerati con attenzione dal nostro lato dell’Atlantico.
Le seguenti sono osservazioni analitiche, non necessariamente “intenzionali” da parte di Anthropic, ma deducibili dal contesto generale del rapporto tra Big Tech e autorità pubbliche.
Nessuna protezione per chi non è americano
Il primo punto è che le preoccupazioni etiche di Anthropic riguardano esclusivamente i cittadini (militari o civili che siano) statunitensi. Pertanto, non esiste alcun divieto affinché Claude Gov venga utilizzato per sviluppare armi (variamente autonome) e sistemi di sorveglianza da impiegare contro chiunque altro. Questo segna la conclusione dell’era dell’innocenza per un’azienda originariamente creata da una costola di Open AI con l’intento di focalizzarsi sulla “safety” e che mantiene attualmente lo status giuridico di “Benefit Corporation”.
Versioni limitate per i partner non USA?
Se Claude Gov dovesse essere venduto anche a Paesi alleati, quale versione sarebbe loro concessa? Non certo quella riservata alle strutture di difesa e sicurezza americane, quindi è realistico ritenere che una simile scelta possa generare difficoltà nel coordinamento strategico e tattico in caso di operazioni militari congiunte. La differente capacità analitica, limitandosi a questo aspetto, si tradurrebbe in decisioni operative che i partner dovrebbero sostanzialmente subire, senza avere una reale voce in capitolo.
Non è detto che Anthropic voglia evolvere Claude Gov verso l’autonomia totale
Claude Gov continua a produrre numerosi errori e per questo è necessaria la presenza di un operatore umano che lo gestisca, ossia di un capro espiatorio. E che l’essere umano incaricato di decidere come utilizzare Claude Gov sia un capro espiatorio è dimostrato da una considerazione piuttosto banale nota da tempo: il valore di un’AI risiede nella capacità di analizzare enormi volumi di dati e proporre delle scelte; ma come può chi deve decidere comprendere quale scelta sia corretta? È evidente che la presenza umana in un processo del genere è puramente formale, poiché l’operatore non avrà una reale capacità o possibilità (in caso di urgenze) di decidere in modo consapevole e informato.
Human in the loop è un modo per far pagare i danni da malfunzionamento al governoDa una prospettiva puramente industriale, sembra improbabile che Claude Gov possa essere progettato per raggiungere la piena autonomia operativa.
Con la presenza di un operatore umano che attiva il funzionamento di Claude Gov, Anthropic si esonera dalle azioni legali delle vittime degli errori di funzionamento (o quantomeno si riserva la possibilità di coinvolgere il governo). Se, infatti, Claude Gov operasse in modo completamente autonomo, allora spetterebbe ad Anthropic risarcire i danni subiti dalle vittime innocenti dei suoi automatismi letali. Al contrario, se per funzionare Claude Gov necessita che un essere umano lo “accenda”, allora la responsabilità ricade su quell’essere umano, cioè sull’amministrazione a cui appartiene il capro espiatorio. In altri termini, non si tratta di prudenza etica, ma di cautela giuridica per limitare il rischio legale.
Quali indicazioni generali si possono trarre dal caso Anthropic
A prescindere dall’esito di questa azione legale volta a tutelare i legittimi interessi economici di Anthropic, è opportuno riflettere su alcune questioni più generali di rilevanza per l’Europa.
La prima è che l’impiego dell’AI con finalità letali da parte degli Stati membri non può essere considerato un tabù. Questo implica che al di fuori della UE (poiché l’articolo 4 del Trattato UE lo consente) i singoli Paesi possono, se lo desiderano, stipulare direttamente accordi per lo sviluppo di tecnologie che integrano l’AI nelle piattaforme decisionali e in quelle d’arma. Ciò significa, ulteriormente, che nell’ambito di questi accordi ristretti sarebbe necessario sviluppare delle AI dedicate alla difesa, addestrate su dati e informazioni non pubblicamente accessibili.
La seconda è che, in particolare nel settore della difesa, se non si decide di sviluppare un intero ecosistema informatico completamente autonomo (sistemi operativi, ambienti di sviluppo, dataset, modelli e piattaforme per utilizzarli), il massimo che potremo utilizzare sarà il minimo che gli USA sono disposti a concederci.
Rischiamo, in altri termini, di trovarci in una posizione di subalternità tattica, simile a quella in cui si trovò la Marina militare italiana durante la seconda guerra mondiale. L’impiego di versioni meno potenti delle cifranti Enigma, la cui crittografia fu “rotta” dagli inglesi, portò a risultati disastrosi culminati nella sconfitta di Capo Matapan. Con le dovute proporzioni, questo potrebbe accadere con AI che commettono troppi errori e(o) che non sono sufficientemente potenti.
La terza è che, nonostante il regolamento UE sull’intelligenza artificiale —o meglio, proprio a causa di quel regolamento— l’obbligo di applicare il principio human in the loop elimina, o comunque riduce fortemente, la responsabilità giuridica della Big Tech di turno. È difficile immaginare che in un contesto normativo come quello europeo ci sia un reale incentivo ad adottare sistemi che in teoria sono sotto il controllo dell’operatore, mentre in realtà lo trasformano semplicemente in un interruttore che ha lo scopo di attivare i meccanismi.
Infine, il fatto che anche altre aziende operanti nel settore abbiano deciso di schierarsi a favore di Anthropic dimostra come le questioni sollevate dalla vicenda specifica siano fonte di preoccupazione per l’intero comparto. Se, infatti, “passasse” la linea sostenuta dall’amministrazione Trump secondo cui rifiutarsi di dare seguito alle richieste della Difesa comporta la perdita della possibilità di lavorare per il settore militare, l’impatto sui profitti e (soprattutto) sulla concorrenza sarebbe enorme e quindi da evitare a ogni costo.
Il caso Anthropic è estremamente utile anche per l’Europa perché offre l’opportunità di guardare al futuro e comprendere quali siano i problemi reali che dovremo affrontare se desideriamo realmente utilizzare le tecnologie AI. L’alternativa è continuare come si sta facendo attualmente, ragionando in termini astratti, basandosi su percezioni confuse del fenomeno AI e quindi lasciando che il resto del mondo prosegua senza di noi.
I commenti sono chiusi.