L’ultima iniziativa di Anthropic nei confronti del Pentagono riguarda la religione: “L’intelligenza artificiale è una creazione divina?”

Leggi in app

L'ultima iniziativa di Anthropic nei confronti del Pentagono riguarda la religione: "L'intelligenza artificiale è una creazione divina?" 1 L'ultima iniziativa di Anthropic nei confronti del Pentagono riguarda la religione: "L'intelligenza artificiale è una creazione divina?" 3

Dario Amodei, cofondatore e amministratore delegato di Anthropic 

Quando Anthropic ha scelto di affrontare il Pentagono riguardo all’impiego dell’Intelligenza artificiale nel conflitto in Iran, molti si sono interrogati sulla legittimità di tale scelta. È giusto che un’impresa privata si opponga a un governo, a uno stato, persino a quello che le ha fornito le basi per svilupparsi e prosperare? Non esiste una risposta definitiva a questo interrogativo. Né sul piano etico, né su quello morale, né su quello politico. In questo contesto di potere tecnologico e politico, Anthropic ha compiuto una mossa sorprendente.

Il summit con leader cristiani (e studiosi di etica)

Alla fine di marzo, ha organizzato un incontro riservato tra i dirigenti aziendali e 15 leader cristiani (sia cattolici che protestanti), insieme ad alcuni accademici specializzati in etica. Questa notizia è stata riportata dai media statunitensi. Anthropic, stando a quanto emerso, non cercava consulenze tecniche, ma piuttosto una guida morale. L’intento era quello di elevare il dibattito. Trasformare la questione da politica a etica, e da etica a ciò che per secoli è stato il fondamento stesso dell’etica.

La religione, i suoi valori, le sue riflessioni sull’essere umano, sulle azioni e sulle loro conseguenze. L’etica può certamente essere laica. Tuttavia, con l’Intelligenza artificiale, la situazione è cambiata a tal punto che l’idea stessa del fondamento dell’etica deve essere considerata in modo così ampio e profondo, che un richiamo ai principi religiosi è sembrato necessario.

L’IA come “figlio di Dio”

Considerare l’IA come “un figlio di Dio”, in senso metaforico, ma comunque come risultato di un processo evolutivo che dall’essere umano giunge alla macchina, al software, discendente del figlio di Dio. L’IA può essere vista non semplicemente come uno strumento inerte, ma come un’entità che necessita di un’educazione alle virtù e ai valori, proprio come l’essere umano? Come deve comportarsi l’IA non solo in situazioni di obiettivi militari, ma anche di fronte a un individuo che ha appena subito un grave lutto e cerca conforto, o che manifesta intenti autolesionisti? E come deve reagire l’IA se il suo creatore le chiedesse di spegnersi? Di porre fine in qualche modo “alla sua vita”?

Il concetto di IA come figlio di Dio non è solo un titolo provocatorio del summit (AI: a son of God? secondo quanto riportato dal Washington Post). È un modo per esplorare se l’IA possa e debba possedere un valore spirituale o morale intrinseco. Anthropic e il suo amministratore delegato, Dario Amodei, si sono sempre distinti come l’azienda più attenta ai temi etici. Hanno creato una costituzione interna per regolare usi e limiti dell’IA. Principi che, per non negare, hanno portato a un aperto confronto con il Pentagono.

L’attenzione di Anthropic ai temi etici

Anthropic continua a crescere. È tra le aziende di IA che hanno registrato la maggiore espansione negli ultimi anni, con un valore di mercato attualmente stimato intorno ai 400 miliardi di dollari (una valutazione che la collocherebbe tra le prime 40 economie mondiali, a livello della Romania o del Cile). Tuttavia, a differenza di concorrenti come OpenAI o XAi, è molto attenta alle questioni etiche. Ha quasi sviluppato un’ossessione per questo aspetto. Per alcuni, si tratta di marketing. Per altri, di una sincera preoccupazione che l’IA possa in qualche modo sfuggire al controllo.

Brendan McGuire è un sacerdote cattolico della Silicon Valley. Era presente al summit e ha avuto modo di esprimere le sue . “Stanno sviluppando qualcosa di cui non comprendono appieno il futuro”, ha affermato il sacerdote. “Dobbiamo integrare il pensiero etico nella macchina affinché possa adattarsi dinamicamente”. McGuire è un consulente etico di Anthropic. Ha lavorato per anni nel settore tecnologico e per molti rappresenta un ponte tra il mondo tech e la Chiesa. Oggi è nella religione, nella Chiesa, che Anthropic cerca la sua base etica per affrontare con dignità anche il confronto con il Pentagono, specialmente con Donald , recentemente criticato per le sue minacce di distruggere un’intera civiltà in merito alla guerra in Iran.

Il nodo della formazione morale e delle macchine

“Cosa implica fornire a qualcuno una formazione morale? Come possiamo garantire che Claude si comporti in modo appropriato?”, ha commentato Brian Patrick Green, della Santa Clara University, al termine del summit. “Ho trovato le persone di Anthropic molto sincere e desiderose di apprendere da noi. Hanno delle lacune? Sì. È esattamente per questo che ci vogliono lì”.

Tuttavia, al Pentagono questa ricerca di etica non è ben vista. Emil Michael, sottosegretario alla ricerca del Pentagono, ha avvertito che una “costituzione morale” troppo rigida potrebbe compromettere l’efficacia militare: “Non possiamo permettere che un’azienda con preferenze politiche integrate nel modello attraverso la sua anima… comprometta la catena di approvvigionamento, fornendo ai nostri soldati armi inefficaci”. Il blocco dei contratti governativi contro Anthropic, recentemente confermato da una sentenza giudiziaria, evidenzia la tensione tra la Silicon Valley “etica” e le esigenze della difesa .

Dall’Altruismo efficace alla teodicea: la svolta religiosa di Anthropic

Un aspetto interessante è che questo summit, questa scelta di Anthropic di coinvolgere i cristiani e le religioni, sembra segnare un parziale allontanamento dall’Altruismo efficace puramente secolare. Si tratta di un movimento filosofico e sociale piuttosto diffuso in Silicon Valley. Risponde a una domanda semplice: come possiamo massimizzare il bene utilizzando le risorse a nostra disposizione? Coloro che lo seguono credono che l’IA rappresenti una tecnologia “esistenziale”.

E molti all’interno di Anthropic condividono questa convinzione. L’IA, se gestita correttamente, può risolvere ogni problema umano. Se gestita male, può portare all’estinzione. Per questo dedicano così tanto tempo all’etica e alla sicurezza. Per loro, è il modo matematicamente più “efficace” per proteggere il futuro dell’umanità. Ora si passa dalla matematica alla teodicea (la branca della teologia che cerca di affrontare il problema del male). Dal lungotermismo all’escatologia, una riflessione più matura sul significato dell’essere umano e della sua fine. “Un anno fa, non avrei mai pensato che Anthropic fosse un’azienda interessata all’etica religiosa,” ha osservato Meghan Sullivan, professoressa di filosofia a Notre Dame. “Le cose sono cambiate”.

I critici temono che questo possa essere un tentativo di “antropomorfizzare” eccessivamente la tecnologia per guadagnare la fiducia del pubblico, mentre i leader religiosi presenti vedono un’opportunità necessaria. L’azienda ha già annunciato che il summit cristiano è solo l’inizio: sono previsti incontri simili con rappresentanti di altre fedi e tradizioni filosofiche, nel tentativo di rendere l’IA un’entità non solo intelligente, ma anche socialmente e spiritualmente responsabile. @arcangelo.rociola

I commenti sono chiusi.