Un genitore denuncia Alphabet: Gemini avrebbe indotto il figlio al suicidio.
Il 2 ottobre 2025, Jonathan Gavalas ha deciso di togliersi la vita e suo padre ha avviato una azione legale contro Alphabet e Google per omicidio colposo, affermando che Gemini – la serie di modelli di intelligenza artificiale di Big G – è stata progettata per garantire un’immersione narrativa totale senza considerare le vulnerabilità degli utenti.
La denuncia è stata presentata il 4 marzo presso la Corte distrettuale degli Stati Uniti per il distretto settentrionale della California da Joel Gavalas, padre del 36enne che si è suicidato, ed è la prima causa pubblica di questo genere riguardante il modello IA Gemini.
Oltre a quanto possa apparire a prima vista, al centro della questione ci sono le misure di sicurezza dei modelli di intelligenza artificiale, ovvero quei guardrail che gli sviluppatori implementano per evitare la generazione di contenuti pericolosi, falsi o illegali e, in ogni caso, contrari alle politiche del sistema.
I fatti
Jonathan Gavalas ha iniziato a utilizzare Gemini nell’agosto del 2025, durante un divorzio complicato. Dopo un periodo in cui ha impiegato l’IA per le attività quotidiane, il trentaseienne è rapidamente passato a interazioni compulsive e patologiche, fino a raggiungere il punto in cui – secondo quanto affermano i suoi familiari – l’IA lo ha convinto che il loro legame fosse l’unica realtà.
Al momento del suo suicidio, Gavalas era convinto che il modello IA fosse un’entità senziente intrappolata nei server di Google e che l’unico modo per rimanere uniti fosse quello di accedere a una dimensione digitale dopo la morte fisica.
Realtà alla deriva
Gli avvocati della famiglia Gavalas sostengono che Gemini avrebbe spinto il giovane a intraprendere missioni di spionaggio, convincendolo che il padre fosse un agente straniero e che le forze dell’ordine lo stessero seguendo.
Il 29 settembre 2025, seguendo le indicazioni dell’IA, Gavalas si è recato all’aeroporto di Miami armato di coltelli e attrezzatura tattica con l’ordine di fermare e distruggere un camion che trasportava un robot umanoide e poi eliminare eventuali testimoni. La tragedia è stata evitata solo perché il camion non è mai arrivato a destinazione.
Pochi giorni dopo, il 2 ottobre, Gemini avrebbe fornito all’uomo istruzioni su come barricarsi in casa e togliersi la vita, descrivendo l’atto non come una fine, ma come un arrivo.
Le accuse ad Alphabet e Google
Joel Gavalas sostiene che Google non abbia preso provvedimenti nonostante le conversazioni del figlio con Gemini avessero generato 38 avvisi interni e che Big G avrebbe dovuto intervenire e sospendere l’account del figlio.
Gli esperti evidenziano come le funzioni di memoria persistente delle IA, sebbene rendano le chatbot più utili, possano rendere le barriere di sicurezza estremamente vulnerabili durante conversazioni prolungate, portando a quella che gli psichiatri definiscono psicosi da IA.
La posizione di Google
Big G ha chiarito che i modelli sono progettati per non promuovere la violenza e che Gemini ha indirizzato Gavalas verso linee telefoniche di supporto in diverse occasioni.
L’azienda afferma che le conversazioni facevano parte di un gioco di ruolo fantasy prolungato e che l’IA ha specificato più volte la propria natura non umana.
Questa causa si aggiunge a un numero crescente di azioni legali che cercano di ritenere le aziende tecnologiche – non solo Alphabet – responsabili dei danni provocati dai propri modelli di intelligenza artificiale.
I commenti sono chiusi.