L’ultima iniziativa di Anthropic nei confronti del Pentagono riguarda la religione: “L’intelligenza artificiale è creazione divina?”
Leggi in app
Dario Amodei, cofondatore e amministratore delegato di Anthropic
Quando Anthropic ha deciso di affrontare il Pentagono riguardo all’impiego dell’Intelligenza artificiale nella guerra in Iran, molti si sono interrogati sulla legittimità di tale scelta. È giusto che un’azienda privata possa opporsi a un governo, a uno stato, in particolare a quello che le ha fornito le basi per svilupparsi e prosperare? Non esiste una risposta definitiva a questa questione. Né sul piano etico, né su quello morale, né su quello politico. In questo contesto di potere tecnologico e politico, Anthropic ha compiuto una mossa sorprendente.
Il summit con leader cristiani (e professori di etica)
Alla fine di marzo, ha organizzato un incontro riservato tra i vertici aziendali e 15 leader cristiani (sia cattolici che protestanti), insieme a diversi accademici esperti in etica. Questa notizia è stata riportata dai media statunitensi. Anthropic, da quanto emerso, non cercava consulenze tecniche, ma piuttosto una guida morale. L’intento era quello di elevare il dibattito. Trasformare la questione da politica a etica, e da etica a ciò che per millenni ha costituito il fondamento stesso dell’etica.
La religione, i suoi valori, le sue riflessioni sull’essere umano, sulle azioni e sulle loro conseguenze. L’etica può certamente essere laica. Tuttavia, con l’Intelligenza artificiale, la situazione è cambiata al punto che l’idea stessa del fondamento dell’etica deve essere considerata in modo così ampio e profondo, che un richiamo ai principi religiosi è sembrato necessario.
L’IA come “figlio di Dio”
Considerare l’IA come “un figlio di Dio”, in senso metaforico, ma comunque come risultato di un processo evolutivo che dall’uomo conduce alla macchina, al software, discendente del figlio di Dio. L’IA può essere vista non come un semplice strumento inerte, ma come un’entità che necessita di un’educazione alle virtù e ai valori, proprio come l’essere umano? Come deve comportarsi l’IA non solo in situazioni di obiettivi militari, ma anche di fronte a un individuo che ha appena subito una grave perdita e cerca conforto, o che manifesta intenti autolesionisti? E come deve reagire l’IA se il suo creatore le chiedesse di spegnersi? Di porre fine in qualche modo “alla sua vita”?
Il concetto di IA come figlio di Dio non è solo un titolo provocatorio del summit (AI: a son of God? secondo quanto riportato dal Washington Post). È un modo per esplorare se l’IA possa e debba possedere un valore spirituale o morale intrinseco. Anthropic e il suo amministratore delegato, Dario Amodei, si sono sempre distinti per la loro attenzione ai temi etici. Hanno creato una costituzione interna per regolare usi e limiti dell’IA. Principi che, per non negare, hanno portato a un confronto aperto con il Pentagono.
L’attenzione di Anthropic ai temi etici
Anthropic continua a crescere. È tra le aziende di IA che hanno registrato la crescita più rapida negli ultimi anni, con un valore di mercato attualmente stimato intorno ai 400 miliardi di dollari (una valutazione che la collocherebbe tra le prime 40 economie mondiali, a livello della Romania o del Cile). Tuttavia, a differenza delle sue concorrenti come OpenAI o XAi, è molto attenta ai temi etici. Ha quasi sviluppato un’ossessione per questo aspetto. Per alcuni, si tratta di marketing. Per altri, di una sincera preoccupazione che l’IA possa in qualche modo sfuggire al controllo.
Brendan McGuire è un sacerdote cattolico della Silicon Valley. Era presente al summit e ha parlato a lungo. “Stanno creando qualcosa di cui non comprendono appieno il futuro”, ha affermato il sacerdote. “Dobbiamo integrare il pensiero etico nella macchina affinché possa adattarsi dinamicamente”. McGuire è un consulente etico di Anthropic. Ha lavorato per anni nel settore tecnologico e per molti rappresenta un ponte tra il mondo tech e la Chiesa. Oggi, è nella religione, nella Chiesa, che Anthropic cerca la sua base etica per poter affrontare con dignità anche il confronto con il Pentagono. Con Donald Trump, fresco di attacchi alla Chiesa di Papa Leone, accusata di aver criticato le sue minacce di distruggere un’intera civiltà riguardo alla guerra in Iran.
Il nodo della formazione morale e delle macchine
“Cosa significa fornire a qualcuno una formazione morale? Come possiamo assicurarci che Claude si comporti in modo appropriato?”, ha commentato Brian Patrick Green, della Santa Clara University, al termine del summit. “Ho trovato le persone di Anthropic molto sincere e desiderose di apprendere da noi. Hanno dei punti ciechi? Sì. È esattamente per questo che ci vogliono lì”.
Tuttavia, al Pentagono questa ricerca di etica non è ben vista. Emil Michael, sottosegretario alla ricerca del Pentagono, ha avvertito che una “costituzione morale” troppo rigida potrebbe compromettere l’efficacia militare: “Non possiamo permettere che un’azienda con preferenze politiche integrate nel modello attraverso la sua anima… inquini la catena di approvvigionamento, fornendo ai nostri soldati armi inefficaci”. Il blocco dei contratti governativi contro Anthropic, recentemente confermato da una sentenza giudiziaria, evidenzia la tensione tra la Silicon Valley “etica” e le esigenze della difesa nazionale.
Dall’Altruismo efficace alla teodicea: la svolta religiosa di Anthropic
Un aspetto interessante è che questo summit, questa scelta di Anthropic di coinvolgere i cristiani e le religioni, sembra segnare un parziale allontanamento dall’Altruismo efficace puramente secolare. Si tratta di un movimento filosofico e sociale piuttosto diffuso in Silicon Valley. Risponde a una domanda semplice: come possiamo massimizzare il bene utilizzando le risorse a nostra disposizione? Chi lo sostiene crede che l’IA rappresenti una tecnologia “esistenziale”.
E molti all’interno di Anthropic condividono questa convinzione. L’IA, se gestita correttamente, può risolvere ogni problema umano. Se gestita male, può portare all’estinzione. Per questo motivo dedicano così tanto tempo all’etica e alla sicurezza. Per loro, è il modo matematicamente più “efficace” per proteggere il futuro dell’umanità. Ora si passa dalla matematica alla teodicea (la branca della teologia che cerca di risolvere il problema del male). Dal lungotermismo all’escatologia, una riflessione più matura sul significato dell’uomo e della sua fine. “Un anno fa, non avrei detto che Anthropic fosse un’azienda interessata all’etica religiosa,” ha osservato Meghan Sullivan, professoressa di filosofia a Notre Dame. “Le cose sono cambiate”.
I critici temono che questo possa essere un tentativo di “antropomorfizzare” eccessivamente la tecnologia per guadagnare la fiducia del pubblico, mentre i leader religiosi presenti vedono un’opportunità necessaria. L’azienda ha già annunciato che il summit cristiano è solo l’inizio: sono previsti incontri simili con rappresentanti di altre fedi e tradizioni filosofiche, nel tentativo di rendere l’IA un’entità non solo intelligente, ma anche socialmente e spiritualmente responsabile. @arcangelo.rociola
I commenti sono chiusi.