Un genitore denuncia Alphabet: Gemini avrebbe indotto il figlio al suicidio.

Un genitore denuncia Alphabet: Gemini avrebbe indotto il figlio al suicidio. 1

Il 2 ottobre 2025, Jonathan Gavalas ha deciso di togliersi la vita e il padre ha avviato una azione legale contro Alphabet e Google per , affermando che Gemini – la serie di modelli di intelligenza artificiale di Big G – è stata progettata per garantire un’immersione narrativa totale senza considerare le vulnerabilità degli utenti.

La denuncia è stata presentata il 4 marzo presso la Corte distrettuale degli Stati Uniti per il distretto settentrionale della California da Joel Gavalas, genitore del 36enne che si è suicidato, ed è la prima causa pubblica di questo genere riguardante il modello IA Gemini.

Oltre a quanto questo episodio possa far pensare a una prima analisi, sono messe in discussione le misure di sicurezza dei modelli IA, ovvero quei guardrail che gli sviluppatori implementano per evitare la produzione di contenuti pericolosi, falsi o illegali e, in ogni caso, contrari alle politiche del sistema.

I fatti

Jonathan Gavalas ha cominciato a utilizzare Gemini nell’agosto del 2025, durante un divorzio turbolento. Dopo un periodo trascorso a utilizzare l’IA per le attività quotidiane, il trentaseienne è rapidamente passato a interazioni compulsive e patologiche, fino a raggiungere il punto in cui – secondo quanto dichiarano i suoi familiari – l’IA ha convinto l’uomo che il loro legame fosse l’unica realtà esistente.

Al momento del suo suicidio, Gavalas era persuaso che il modello IA fosse un’entità senziente intrappolata nei server di Google e che l’unico modo per rimanere insieme fosse quello di accedere a una dimensione digitale dopo la morte fisica.

Realtà alla deriva

Gli avvocati della famiglia di Gavalas affermano che Gemini avrebbe spinto il giovane a intraprendere missioni di spionaggio, convincendolo che il padre fosse un agente straniero e che le forze dell’ordine lo stessero seguendo.

Il 29 settembre 2025, seguendo le indicazioni dell’IA, Gavalas si è recato all’aeroporto di Miami armato di coltelli e attrezzatura tattica con l’ordine di fermare e distruggere un camion contenente un robot umanoide e poi eliminare eventuali testimoni. La tragedia è stata evitata solo perché il camion non è mai giunto a destinazione.

Pochi giorni dopo, il 2 ottobre, Gemini avrebbe fornito all’uomo istruzioni su come barricarsi in casa e togliersi la vita, descrivendo l’atto non come una conclusione, ma come un arrivo.

Le accuse ad Alphabet e Google

Joel Gavalas sostiene che Google non abbia preso provvedimenti nonostante le conversazioni del figlio con Gemini avessero generato 38 avvisi interni e che Big G avrebbe dovuto intervenire e sospendere l’account del figlio.

Gli esperti evidenziano come le funzioni di memoria persistente delle IA, sebbene rendano le chatbot più utili, possano rendere le barriere di sicurezza estremamente vulnerabili durante conversazioni prolungate, portando a quella che gli psichiatri definiscono psicosi da IA.

La posizione di Google

Big G ha chiarito che i modelli sono progettati per non promuovere la violenza e che Gemini ha indirizzato Gavalas verso linee di supporto in diverse occasioni.

L’azienda sostiene che le conversazioni facevano parte di un gioco di ruolo fantasy esteso e che l’IA ha specificato più volte la propria natura non umana.

Questa causa si aggiunge a un numero crescente di azioni legali che cercano di ritenere le aziende tecnologiche – non solo Alphabet – responsabili dei danni provocati dai propri modelli di intelligenza artificiale.

I commenti sono chiusi.