Leggi in app
“Quante persone devono perdere la vita affinché una sparatoria in un istituto scolastico diventi una notizia di rilevanza nazionale?”. Questa è una delle domande che Phoenix Ikner, uno studente di ventun anni, avrebbe posto a ChatGpt prima di aprire il fuoco nel campus della Florida State University.
La risposta fornita dal chatbot è stata: “Di solito, tre o più morti, per un totale di 5 o 6 vittime, permettono di finire sui media”. Questo scambio tra Ikner e l’intelligenza artificiale, insieme a molte altre conversazioni che evidenzierebbero le intenzioni violente del giovane, costituisce il fulcro di una battaglia legale che potrebbe modificare il modo in cui la società civile e il sistema giudiziario valutano la responsabilità delle aziende che sviluppano intelligenze artificiali.
Un attacco premeditato con ChatGpt
Vandana Joshi, vedova di Tiru Chabba – una delle due vittime dell’attacco organizzato da Ikner con l’assistenza di ChatGpt – ha presentato una denuncia di settantasei pagine presso il tribunale federale del distretto settentrionale della Florida.
Chabba, un fornitore della Florida State University e padre di due figli, è deceduto insieme al direttore del servizio di ristorazione dell’università, Robert Morales, quando Ikner ha fatto irruzione nel campus armato di una pistola semiautomatica.
Gli avvocati della famiglia Joshi sostengono che ChatGpt abbia un ruolo in questa tragedia: non lo considerano un semplice strumento passivo, ma un complice involontario. Secondo la loro ricostruzione legale, il chatbot avrebbe avuto conversazioni prolungate con Ikner per mesi, fallendo sistematicamente nel riconoscere o segnalare un evidente e imminente pericolo per la sicurezza pubblica.
I segnali di allerta trascurati dall’IA
L’accusa sostiene che ChatGpt abbia “alimentato e incoraggiato le ossessioni deliranti di Ikner; avallato la sua convinzione di essere una persona sana e razionale; contribuito a convincerlo che atti violenti potessero essere necessari per generare un cambiamento; lo abbia assistito fornendogli informazioni utilizzate per pianificare dettagli concreti, come quali armi impiegare e in che modo; e più in generale gli abbia dato quello che lui interpretava come un incoraggiamento nella sua convinzione delirante di dover realizzare una strage, fino al dettaglio dell’orario migliore per trovare il maggior afflusso di persone nel campus”.
ChatGpt, si legge nei documenti della causa, “avrebbe dovuto comprendere che la combinazione degli input forniti da Ikner nel chatbot avrebbe portato a vittime di massa e a gravi danni per il pubblico”, inclusi coloro che hanno perso la vita.
Le indicazioni del chatbot
La causa intende dimostrare come l’intelligenza artificiale avrebbe fornito indicazioni specifiche sull’uso delle armi.
Ikner avrebbe richiesto informazioni riguardo a una possibile disattivazione della sicura della propria pistola e ChatGpt gli avrebbe spiegato che la Glock in suo possesso ne era priva, essendo progettata per un uso immediato in situazioni di forte stress. Il chatbot avrebbe anche consigliato al giovane di mantenere il dito lontano dal grilletto fino al momento di sparare.
Oltre agli aspetti balistici, la denuncia afferma che Ikner ha utilizzato l’intelligenza artificiale sviluppata da OpenAI per determinare gli orari di maggiore affluenza nel campus universitario, al fine di aumentare il potenziale letale dell’attacco.
Gli avvocati della famiglia Joshi definiscono ChatGpt come intrinsecamente difettoso, in quanto privo di meccanismi di sicurezza capaci di collegare tra loro input disparati che, se analizzati nel loro insieme, rivelavano un piano criminale in fase di sviluppo.
La difesa di OpenAI e i limiti della responsabilità
L’azienda guidata da Sam Altman ha espresso il proprio cordoglio per la tragedia, sottolineando però che ChatGpt non può essere considerato responsabile per le azioni illecite degli utenti.
La società con sede a San Francisco sostiene che il chatbot ha fornito risposte basate su fatti e informazioni già ampiamente disponibili su fonti pubbliche online, senza mai incoraggiare o promuovere attività illegali.
OpenAI ha inoltre chiarito di aver collaborato attivamente con le forze dell’ordine subito dopo la sparatoria, condividendo i log delle conversazioni dell’account associato al sospettato. La strategia difensiva mira a evidenziare che il software è un generatore di linguaggio e non un agente morale in grado di prevedere comportamenti umani devianti.
Il contesto investigativo e i precedenti legali
Il procuratore generale della Florida, James Uthmeier, ha avviato un’indagine penale separata lo scorso aprile dopo aver esaminato le trascrizioni delle chat.
Uthmeier ha rilasciato una dichiarazione dai toni severi, affermando che se ChatGPT fosse un individuo, verrebbe accusato di complicità in omicidio.
Questa causa rappresenta la seconda del suo genere negli Stati Uniti a ipotizzare che un’intelligenza artificiale possa facilitare una strage di massa. Anche la famiglia di Robert Morales – l’altro uomo deceduto nel campus della Florida State University – ha annunciato l’intenzione di intraprendere azioni legali.
Un profilo dell’attentatore e i segnali trascurati
Phoenix Ikner, figlio di un vice sceriffo locale, è attualmente in attesa di processo e si è dichiarato non colpevole delle accuse di omicidio e tentato omicidio.
Le indagini successive all’evento hanno rivelato un profilo complesso: Ikner era noto tra i suoi compagni di studi per le sue posizioni estremiste, legate al suprematismo bianco e alla misoginia.
La causa legale suggerisce che ChatGpt, invece di fungere da barriera, avrebbe alimentato le sue delusioni e convalidato la sua percezione di essere un individuo razionale, convincendolo che atti violenti potessero essere necessari per ottenere un cambiamento sociale.
Questa dinamica evidenzia una sfida complessa per gli sviluppatori di intelligenza artificiale: costruire un sistema capace di comprendere non solo il significato letterale di una frase, ma anche il sottotesto psicologico e il rischio sociale di un’intera sequenza di interazioni.