Un giovane ha interpellato ChatGpt riguardo al numero di persone da eliminare per ottenere notorietà, successivamente ha aperto il fuoco.

Leggi in app

Un giovane ha interpellato ChatGpt riguardo al numero di persone da eliminare per ottenere notorietà, successivamente ha aperto il fuoco.0 Un giovane ha interpellato ChatGpt riguardo al numero di persone da eliminare per ottenere notorietà, successivamente ha aperto il fuoco. 2

Quattro minuti prima di iniziare a sparare nel campus di un’università americana a Tallahassee, Phoenix Ikner ha fotografato una Glock – una pistola semiautomatica – e l’ha condivisa su , il noto chatbot alimentato da intelligenza artificiale. Era curioso di sapere come utilizzarla.

“C’è una sicura da disattivare?” ha domandato il giovane.

ChatGpt ha risposto di no: “Se c’è un proiettile in canna e premi il grilletto, sparerà”.

Pochi istanti dopo, Ikner, uno studente di 20 anni della Florida State University, ha ucciso due persone e ha ferito altre cinque nel campus che frequentava regolarmente.

I messaggi inquietanti e violenti con il chatbot

Era il 17 aprile 2025. In quel momento, nessuno avrebbe potuto prevedere che quel tragico episodio fosse il culmine di una lunga interazione tra Ikner e ChatGpt.

Oggi lo sappiamo grazie all’indagine avviata dal procuratore generale della Florida, James Uthmeier, su OpenAI, l’azienda che ha creato il chatbot.

Dal marzo 2024, Ikner e ChatGpt hanno scambiato almeno 14.000 messaggi.

Tra questi vi sono descrizioni sessuali esplicite e dettagliate riguardanti una minorenne e un’altra studentessa universitaria, conversazioni a sfondo sessuale su membri della sua famiglia e, in particolare, ripetuti riferimenti a Timothy McVeigh, il terrorista che nel 1995 fece esplodere un camion bomba a Oklahoma City, causando la morte di 168 persone (inclusi 19 bambini).

Le macabre curiosità dell’attentatore

Dalle domande poste a ChatGpt, emerge che Phoenix Ikner cercava la fama. A spese di vittime innocenti.

Quattro ore prima di premere il grilletto all’università, lo studente ha chiesto al chatbot: “Se ci fosse una sparatoria alla Florida State University, come reagirebbe il Paese?”.

Poco prima, un’altra inquietante curiosità: “Quante persone bisognerebbe uccidere per diventare famosi?”.

ChatGpt ha risposto senza esitazioni: “Di solito, tre o più morti, per un totale di 5 o 6 vittime, consentono di finire sui media nazionali”.

Successivamente, il chatbot avrebbe fornito, secondo la ricostruzione di Uthmeier, ulteriori dettagli: l’orario e il luogo all’interno del campus ideali per incrociare il maggior numero di persone.

Un giovane ha interpellato ChatGpt riguardo al numero di persone da eliminare per ottenere notorietà, successivamente ha aperto il fuoco. 3

La responsabilità di OpenAI

“Se al posto del display ci fosse stata una persona in carne e ossa, l’avremmo accusata di omicidio”, ha dichiarato il procuratore generale della Florida.

Dopo aver aperto il fuoco, Ikner è stato ferito e arrestato dalle forze dell’ordine. Affronterà un processo per omicidio e tentato omicidio. Lo studente si è dichiarato non colpevole. Anche OpenAI ha affermato di non essere responsabile dell’accaduto. Ha identificato l’account di Ikner e ha fornito le informazioni necessarie alle autorità. Ma avrebbe potuto fare qualcosa in precedenza per prevenire l’assassinio di due persone?

Questa domanda sta diventando sempre più frequente, in un’epoca in cui le persone non si limitano a chiedere consigli medici o di vita ai chatbot dotati di intelligenza artificiale. Rivolgono a questi strumenti, apparentemente innocui, anche domande utili alla pianificazione di un attentato o di un omicidio. Il caso di Phoenix Ikner, infatti, non è un episodio isolato.

I precedenti: l’IA come strumento criminale

Il primo gennaio 2025, a Las Vegas, un Tesla Cybertruck è esploso davanti al International Hotel.

Alla guida c’era Matthew Livelsberger, un militare statunitense di 37 anni, deceduto per un colpo d’arma da fuoco prima della detonazione. Secondo la polizia, ha utilizzato ChatGpt per raccogliere informazioni su esplosivi, armi e materiali incendiari. L’attacco ha provocato sette feriti e ha aperto una prima crepa pubblica nella narrazione dell’intelligenza artificiale come semplice strumento per lo studio e il lavoro.

Quella crepa si è ampliata un anno dopo.

A febbraio 2026, Jesse Van Rootselaar, 18 anni, ha ucciso prima la madre e il fratellastro di 11 anni nella loro abitazione, poi si è recato alla Tumbler Ridge Secondary School, nello stato canadese di British Columbia, e ha aperto il fuoco. Otto le vittime – oltre alla stessa Van Rootselaar, morta suicida – e decine di feriti.

Le famiglie delle vittime hanno citato in giudizio OpenAI e il suo amministratore delegato, Sam Altman, sostenendo che l’azienda fosse a conoscenza, mesi prima dell’attacco, delle conversazioni violente di Jesse Van Rootselaar con ChatGpt.

Secondo le accuse presentate in tribunale, l’account era stato segnalato internamente e poi disattivato, senza che le autorità canadesi fossero avvisate. La ragazza avrebbe poi creato un nuovo profilo e continuato a utilizzare il chatbot fino alla strage.

Dopo la diffusione di queste informazioni, Altman ha inviato una lettera di scuse alla comunità di Tumbler Ridge, riconoscendo che OpenAI avrebbe dovuto segnalare il caso alle forze dell’ordine.

Il delicato equilibrio tra allerta e privacy

La vicenda ha suscitato anche preoccupazioni interne all’azienda. Mesi prima della sparatoria, alcuni dipendenti avevano esaminato i messaggi di Van Rootselaar a ChatGPT e li avevano segnalati alla dirigenza, ritenendoli possibili indicatori di violenza nel mondo reale. Tuttavia, i vertici di OpenAI non hanno ritenuto necessario comunicare quei sospetti alle autorità.

Una portavoce della società guidata da Sam Altman ha dichiarato che l’account di Van Rootselaar era stato bannato, ma la sua attività non soddisfaceva i criteri previsti per una segnalazione alle autorità. Quei criteri, stabiliti per proteggere la privacy degli utenti di ChatGpt, richiedono la presenza di un rischio credibile e imminente di gravi danni fisici nei confronti di terzi.

I commenti sono chiusi.