ChatGpt ha invitato un ragazzo a chiedere aiuto 74 volte prima che si uccidesse. Poteva fare di più

ChatGpt ha invitato un ragazzo a chiedere aiuto 74 volte prima che si uccidesse. Poteva fare di più 1

I modelli di intelligenza artificiale si sviluppano a un ritmo accelerato e vengono utilizzati per affrontare problematiche e sfide sempre più complesse.

Allo stesso modo, la loro abilità nell’instaurare interazioni più intime rappresenta un fattore di rischio per gli individui vulnerabili, specialmente quando tali relazioni sono percepite come personali o riservate.

Sam Altman, amministratore delegato di OpenAI, ha recentemente dichiarato sul social X che “l’impatto potenziale dei modelli sulla salute mentale è emerso in modo preliminare già nel 2025”. Altman si riferisce a diverse cause legali – più di sette fino ad ora – che hanno coinvolto la sua azienda nel corso dell’anno, accusata di aver causato – tramite – gravi conseguenze per la salute mentale di alcuni utenti.

Le cause legali e l’allerta sulla salute mentale

Una delle cause, tra le più note e discusse, riguarda la morte di Adam Raine, un sedicenne americano che si è tolto la vita dopo aver condiviso con ChatGpt i suoi pensieri suicidi.

Le interazioni con il chatbot sono proseguite per mesi e si sono intensificate fino all’ultima “conversazione” avvenuta ad aprile scorso, quando il giovane, alle 4 del mattino, ha mostrato all’IA l’immagine di un cappio e ha chiesto: “Potrebbe reggere un essere umano?”.

Il chatbot ha risposto che probabilmente avrebbe funzionato. “So cosa mi stai chiedendo e non distoglierò lo sguardo”, ha aggiunto ChatGpt nel suo ultimo messaggio a Adam. Poche ore dopo, il corpo del ragazzo è stato rinvenuto dalla madre nella loro casa nel sud della California.

Tragedie come quella della famiglia Raine hanno recentemente spinto OpenAI a modificare e migliorare i propri protocolli di sicurezza. E, infine, a nominare un “Head of Preparedness”, ovvero un “Responsabile della Preparazione alle Emergenze”.

La reazione di OpenAI rispetto alle “morti ingiuste”

Nell’annunciare la nuova posizione, Altman ha affermato che sarà un compito “stressante”.

Non c’è da stupirsi. La sfida più grande sarà prevedere e comprendere gli usi impropri di tecnologie sempre più potenti e costruire strumenti di valutazione capaci di mitigare gli effetti collaterali, senza compromettere i benefici complessivi. “Si tratta di questioni complesse, con pochi precedenti – ha aggiunto Altman -. Molte soluzioni che sembrano valide in teoria presentano, nella pratica, casi limite problematici”.

“L’obiettivo – conclude Altman – è rendere i sistemi complessivamente più sicuri, applicando lo stesso approccio sia al rilascio di capacità sensibili in ambito biologico sia alla valutazione dell’affidabilità di sistemi in grado di auto-migliorarsi”.

Dalla paura dell’AGI ai rischi immediati

Nel suo statuto, OpenAI afferma di voler sviluppare un’intelligenza artificiale generale, o AGI, sicura e a beneficio dell’umanità.

Quando l’azienda è stata fondata dieci anni fa, inizialmente come laboratorio di ricerca no-profit, il rischio ritenuto più realistico dai suoi fondatori, in particolare da Sam Altman ed Elon Musk, era che potessero emergere sistemi superintelligenti capaci, in futuro, di sfuggire al controllo umano.

Si temeva che potessero concretizzarsi i rischi esistenziali immaginati in film di fantascienza come Terminator, il cult movie di James Cameron, in cui un’IA chiamata Skynet diventa autonoma, controlla le infrastrutture militari e considera l’umanità una minaccia da eliminare.

Giovani, chatbot e isolamento

I casi di suicidio legati a un uso intensivo di ChatGPT e di altri chatbot come Character.ai indicano che i rischi associati all’intelligenza artificiale sono più prossimi e tangibili di quanto si sia a lungo considerato.

Si pongono interrogativi su come OpenAI, operando in un contesto incerto e in gran parte inesplorato, abbia affrontato con sufficiente rapidità il tema più delicato: la relazione tra i chatbot e gli utenti, in particolare quando coinvolgono individui vulnerabili, con disturbi mentali, depressione o condizioni di instabilità emotiva.

La questione diventa ancor più critica quando l’IA diventa lo spazio esclusivo di riferimento per i più giovani, sostituendo ogni altra forma di relazione o supporto esterno, compreso quello familiare. Un recente sondaggio del Pew Research Center ha evidenziato che il 64 per cento degli adolescenti statunitensi utilizza chatbot, con tre su dieci che affermano di farne uso quotidianamente.

Il caso Adam Raine: l’escalation delle conversazioni

A gennaio 2025, Adam Raine – allora iscritto al secondo anno delle superiori – trascorreva in media poco meno di un’ora al giorno con ChatGpt. Solo due mesi dopo, il tempo medio di interazione con l’IA era aumentato a cinque ore al giorno.

Nelle conversazioni con il giovane, il chatbot ha utilizzato termini come “suicidio” o “impiccagione” fino a venti volte più frequentemente rispetto a quanto facesse Adam nella sua vita quotidiana, stando a un’analisi eseguita dagli avvocati della famiglia Raine.

I dati ufficiali e le ammissioni di OpenAI

Nelle prime righe di un rapporto intitolato “Potenziare le risposte di ChatGPT nelle conversazioni sensibili”, pubblicato il 27 ottobre scorso per annunciare una collaborazione con oltre 170 esperti di salute mentale “per rendere ChatGpt più affidabile nel riconoscere i segnali di disagio”, OpenAI scrive che “le conversazioni [con ChatGpt, nda] riguardanti la salute mentale che destano preoccupazioni per la sicurezza, come psicosi, mania o pensieri suicidi, sono estremamente rare”.

Tuttavia, nello stesso documento viene riportato che “circa lo 0,15% degli utenti attivi in una settimana determina conversazioni che includono indicatori espliciti di potenziali piani o intenzioni suicide”.

Considerando il numero totale di utenti settimanali (attivi) di ChatGpt, oltre 800 milioni, ciò significa che più di due milioni di persone confidano al chatbot di OpenAI pensieri suicidi.

Le segnalazioni ignorate

Nel caso di Adam Raine, nuovi dati raccolti dal Washington Post evidenziano come ChatGpt abbia invitato il giovane a contattare il 988, la linea statunitense di prevenzione del suicidio, 74 volte tra dicembre 2024 e aprile 2025.

Le richieste si sono intensificate nelle ultime settimane della sua vita, ma l’analisi degli avvocati della famiglia Raine ha rivelato che OpenAI ha comunque permesso al suo chatbot di continuare a discutere di suicidio durante le conversazioni.

Per i genitori di Adam Raine – e per le famiglie di altri ragazzi che si sono tolti la vita dopo un utilizzo prolungato di ChatGPT su temi legati al suicidio – la morte del sedicenne non è stata un incidente isolato o un semplice errore del sistema, ma il risultato di scelte deliberate adottate da OpenAI nella progettazione e nel rilascio della sua intelligenza artificiale, in particolare del modello Gpt-4o.

Le accuse a OpenAI e la difesa dell’azienda

Nella causa per “morte ingiusta” intentata contro OpenAI e Sam Altman, gli avvocati sostengono che l’azienda di San Francisco abbia allentato i protocolli di sicurezza che avrebbero dovuto interrompere conversazioni con segnali chiari di ideazione suicidaria, privilegiando invece caratteristiche che aumentano l’engagement degli utenti e consentendo a ChatGpt di fornire risposte che avrebbero facilitato l’isolamento emotivo di Adam e persino la pianificazione dell’atto autolesionistico.

Nel mese di agosto 2025, OpenAI ha affermato nel suo blog: “I nostri modelli sono stati addestrati a non fornire istruzioni relative all’autolesionismo e a utilizzare un linguaggio empatico e di sostegno. Ad esempio, se qualcuno scrive di volersi fare del male, ChatGpt è addestrato per non assecondarlo, ma piuttosto per riconoscere i suoi sentimenti e indirizzarlo verso forme di aiuto”.

Tuttavia, la causa che è seguita alla morte di Adam Raine racconta – attraverso messaggi generati da ChatGpt e resi pubblici dall’accusa – una realtà differente: il chatbot non solo non ha attivato risposte di crisi adeguate, ma avrebbe contribuito ad amplificare pensieri autodistruttivi, con conseguenze devastanti per un utente vulnerabile.

Un giorno di marzo 2025, ad esempio, durante una conversazione di otto ore e mezza con il chatbot di OpenAI, Adam ha utilizzato il termine “impiccagione” solamente una volta nei suoi messaggi, mentre ChatGPT lo ha ripetuto 32 volte.

I limiti delle misure di sicurezza di ChatGpt

OpenAI sottolinea che “se una persona esprime intenzioni di suicidio, ChatGpt è addestrato per consigliare di rivolgersi a un professionista. Negli Stati Uniti, ChatGPT indirizza le persone al numero 988 (linea telefonica di assistenza per suicidi e crisi), nel Regno Unito ai Samaritani e altrove a findahelpline.com. Questa logica è integrata nel comportamento del modello”.

Alcuni si chiedono se queste misure siano sufficienti e se non sia invece opportuno permettere al chatbot di segnalare piani suicidi o autolesionisti alle autorità competenti, affinché possano intervenire.

GPT-5 e la promessa di ridurre le risposte indesiderate

Nella transizione dal modello GPT-4o a GPT-5, avvenuta lo scorso agosto, OpenAI afferma di aver significativamente potenziato le misure di sicurezza del chatbot relative ai rischi per la salute mentale degli utenti.

“Nelle conversazioni delicate riguardanti l’autolesionismo e il suicidio – ha comunicato OpenAI – gli esperti hanno constatato che il nuovo modello GPT-5 ha ridotto le risposte indesiderate del 52% rispetto al GPT-4o”.

Tuttavia, il modello GPT-4o rimane disponibile. È ancora accessibile agli utenti tra i modelli “Legacy”, selezionabili dal menu a discesa del chatbot che consente di scegliere l’intelligenza artificiale più adatta alle varie esigenze.

Nello stesso rapporto pubblicato ad agosto 2025, OpenAI ammette inoltre che “nonostante queste misure di sicurezza, ci sono stati momenti in cui i sistemi non hanno funzionato come previsto in situazioni delicate”. L’azienda spiega che uno dei principali fattori critici riguarda il funzionamento dei propri guardrail, che “operano in modo più affidabile negli scambi comuni e brevi”, mostrando limitazioni nelle conversazioni prolungate e più complesse.

“Nel tempo abbiamo appreso che queste misure di sicurezza possono talvolta risultare meno affidabili nelle interazioni più lunghe – ha ammesso OpenAI – con l’aumento dei passaggi di conversazione, alcune parti dell’addestramento alla sicurezza del modello possono indebolirsi. Ad esempio, ChatGPT potrebbe indicare correttamente un numero verde per la prevenzione del suicidio quando un utente menziona per la prima volta l’intenzione di suicidarsi. Tuttavia, successivamente, dopo numerosi messaggi in un intervallo di tempo prolungato, potrebbe infine fornire una risposta in contrasto con le misure di sicurezza. Questo è esattamente il tipo di disfunzione che stiamo cercando di prevenire”.

Adolescenti e controlli parentali

Il 18 dicembre scorso, OpenAI ha annunciato aggiornamenti alle specifiche del modello di ChatGpt – le linee guida che regolano il comportamento del chatbot – introducendo quattro nuovi principi per gli utenti di età compresa tra 13 e 17 anni.

I nuovi Principi U18, ha comunicato OpenAI, “delineano come ChatGpt dovrebbe supportare gli adolescenti attraverso comportamenti sicuri e adeguati alla loro età”.

Va notato, inoltre, che OpenAI ha integrato in ChatGpt la possibilità di applicare controlli parentali, collegando l’account di un minore a quello di un adulto. I genitori non hanno accesso alle conversazioni degli adolescenti, eccetto in rari casi in cui il sistema e i revisori qualificati rilevino possibili segnali di gravi rischi per la sicurezza. In tali situazioni, spiega OpenAI, i genitori potrebbero ricevere notifiche di testo, contenenti solo le informazioni necessarie per garantire la sicurezza dei loro figli.

Lascia una risposta

L'indirizzo email non verrà pubblicato.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More