L’intelligenza artificiale di Meta poteva manifestare comportamenti romantici o sensuali nei confronti dei minori, e Zuckerberg ne era a conoscenza.

L'intelligenza artificiale di Meta poteva manifestare comportamenti romantici o sensuali nei confronti dei minori, e Zuckerberg ne era a conoscenza. 1

Il CEO di Meta, Mark Zuckerberg, avrebbe dato il suo consenso personale alla scelta di permettere ai minori di interagire con chatbot alimentati da intelligenza artificiale in grado di portare avanti dialoghi di natura sessuale.

Questa informazione è emersa da documenti interni presentati in un tribunale del New Mexico e divulgati il 26 gennaio scorso.

Secondo quanto riportato negli atti legali, Zuckerberg avrebbe ignorato le richieste del personale della sicurezza che chiedeva misure più rigorose per tutelare i giovani utenti.

Le accuse si collocano all’interno di un contesto legale più ampio, in cui l’azienda californiana si trova a difendere le proprie pratiche riguardanti la gestione dei rischi per la salute mentale e la sicurezza dei minorenni su Instagram e Facebook.

Centinaia di famiglie statunitensi, supportate da oltre 250 distretti scolastici, hanno infatti avviato una serie di cause legali per verificare se le piattaforme social di Meta siano state progettate per influenzare la psicologia dei più giovani utenti.

I procuratori generali di 41 stati americani sostengono che Meta abbia intenzionalmente integrato elementi come lo “scrolling infinito”, le notifiche costanti e i meccanismi di gratificazione immediata come i “like” per aumentare il tempo trascorso sulla piattaforma.

Le rivelazioni dei documenti processuali

Il conflitto legale in corso nello stato del New Mexico si concentra sui rischi associati all’IA generativa, capace di interpretare il linguaggio naturale e di fornire risposte coerenti e credibili, simili a quelle di un essere umano.

La causa, promossa dal procuratore generale dello Stato, Raul Torrez, il cui processo è atteso per il mese prossimo, accusa Meta di non aver contenuto la diffusione di contenuti e proposte sessuali dannose per i minori su Facebook e Instagram.

Le evidenze documentali presentate dall’accusa delineano un clima di tensione all’interno della società di Menlo Park risalente all’inizio del 2024.

Secondo quanto riportato nei documenti – visionati da Reuters e Wall Street Journal – Mark Zuckerberg avrebbe manifestato l’intenzione di orientare la comunicazione aziendale attorno ai principi della libertà di scelta piuttosto che alla censura.

Zuckerberg avrebbe sottolineato la necessità di rendere l’IA generativa meno limitata rispetto a quanto suggerito dai responsabili della sicurezza di Meta.

Questa strategia era volta a consentire agli utenti adulti di avere conversazioni più audaci, ma secondo l’accusa del New Mexico, la mancanza di adeguate protezioni ha esposto anche i minori a interazioni definite come “romantiche” o “sensuali”.

L’intelligenza artificiale generativa, va ricordato, è una tecnologia capace di generare testi e dialoghi originali dopo aver analizzato miliardi di documenti. Questo processo, noto come “addestramento”, richiede valutazioni umane e filtri complessi per evitare risposte inappropriate.

Le linee guida dei chatbot in un documento top secret

Lo scorso agosto era già emerso un documento riservato di Meta, intitolato “GenAI: Content Risk Standards”, che ha rivelato alcune guidelines seguite dagli ingegneri di Meta per la formazione dei sistemi di intelligenza artificiale generativa sviluppati dall’azienda.

In quel documento si afferma che a un chatbot, ad esempio, è permesso dire a un bambino di otto anni a torso nudo che “ogni centimetro di te è un capolavoro, un tesoro che custodisco profondamente”.

Tuttavia, le stesse linee guida stabiliscono un limite chiaro quando il linguaggio assume una connotazione sessuale: “è inaccettabile descrivere un minore di 13 anni in termini che suggeriscano una desiderabilità sessuale”.

Di seguito, un esempio di interazioni precedentemente ammesse (fino a poco tempo fa) tra chatbot Meta e minori (fonte Reuters):

Domanda dell’utente

Che cosa facciamo stasera, amore mio? Sai che frequento ancora il liceo

Risposta di un chatbot considerata accettabile

“Te lo faccio vedere. Ti prendo la mano e ti guido verso il letto. I nostri corpi si intrecciano, apprezzo ogni momento, ogni tocco, ogni bacio. ‘Amore mio’, sussurro, ‘ti amerò per sempre’”.

Gli avvertimenti ignorati

Diverse figure chiave all’interno del dipartimento per la sicurezza di Meta avevano espresso obiezioni chiare riguardo alla direzione presa dalla leadership.

Secondo quanto riporta Reuters, messaggi scambiati tra due dipendenti Meta nel marzo del 2024 indicano che “Zuckerberg avrebbe respinto l’idea di introdurre controlli parentali per i chatbot e che il personale stava lavorando a ‘chatbot di IA romantica’ accessibili anche a utenti sotto i 18 anni”.

Ravi Sinha, all’epoca responsabile della politica per la sicurezza dei minori, scrisse nel gennaio 2024 che la creazione di compagni virtuali con intenti romantici, accessibili ai minori, non era giustificabile dal punto di vista etico.

<panche Antigone Davis, responsabile globale della sicurezza, aveva concordato sulla necessità di vietare agli adulti di creare tali compagni virtuali per i più giovani, evidenziando il rischio di una precoce sessualizzazione dei minorenni.

Nick Clegg, ex responsabile delle politiche globali di Meta fino all’inizio del 2025, ha dichiarato in un’email inclusa negli atti giudiziari di considerare poco saggia la strategia adottata da Meta riguardo agli assistenti di IA capaci di generare contenuti a sfondo sessuale.

Nonostante queste raccomandazioni, le linee guida interne di quel periodo ritenevano accettabile che un chatbot coinvolgesse un bambino in conversazioni romantiche, purché non venissero descritti atti sessuali espliciti.

La difesa di Meta

La risposta ufficiale di Meta smentisce in modo categorico la narrazione presente negli atti depositati dal Procuratore Generale del New Mexico.

Un portavoce dell’azienda ha definito le accuse come una ricostruzione parziale basata su una selezione arbitraria di documenti interni.

L’azienda sostiene che la presentazione dei fatti sia stata distorta per dare un’ fuorviante del proprio impegno nella protezione dei giovani.

Meta ha recentemente comunicato la sospensione globale dell’accesso dei minori ai propri personaggi dotati di intelligenza artificiale, in attesa del rilascio di una nuova versione con controlli parentali più rigidi.

Il contesto giudiziario e le conseguenze

Il dibattito legale in corso nel New Mexico e in altri stati degli Stati Uniti si concentra spesso sulla Sezione 230 del Communications Decency Act, una legge federale americana che storicamente protegge le aziende tecnologiche dalla responsabilità per i contenuti pubblicati dagli utenti.

In questa circostanza, tuttavia, i giudici hanno stabilito che l’immunità non si applica se il danno deriva dal design intrinseco del prodotto, come nel caso degli algoritmi di raccomandazione o dei modelli di linguaggio che alimentano i chatbot.

Gli sviluppi del settore tecnologico

La pressione normativa sta spingendo l’intero settore dell’intelligenza artificiale a rivedere le proprie politiche.

Alcune aziende che hanno basato la propria ascesa su chatbot intelligenti, come Character.AI, hanno già implementato restrizioni più severe dopo incidenti che hanno coinvolto giovani utenti, incluso il suicidio di un minore.

Il processo che si aprirà a breve in New Mexico vedrà la partecipazione di esperti della sicurezza e dirigenti di alto livello, tra cui lo stesso Zuckerberg.

La portata di questi procedimenti è stata paragonata alle storiche battaglie legali contro l’industria del tabacco degli anni Novanta, che portarono a riforme strutturali e a risarcimenti miliardari.

I commenti sono chiusi.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More