In trattamento per dipendenza da intelligenza artificiale: è un caso senza precedenti in Italia.
Leggi in app
Era prevedibile. Il primo caso di dipendenza dall’intelligenza artificiale in Italia si è concretizzato. Riguarda una giovane di circa vent’anni, seguita dal Servizio per le dipendenze (Serd) dell’azienda sanitaria Ulss 3 Serenissima di Venezia. Si tratta di un disturbo che rientra nel gruppo delle dipendenze comportamentali, caratterizzato da tratti ossessivi e compulsivi, che include anche social network, videogiochi, internet, oltre al gioco d’azzardo e allo shopping eccessivo.
Dinamiche comuni
Tra i meccanismi ricorrenti di questo fenomeno, si evidenziano la crescente necessità di rimanere connessi, le difficoltà a interrompere le interazioni online, i tentativi infruttuosi di limitare l’uso dei chatbot e le ricadute nei momenti di vulnerabilità.
In aggiunta, si manifestano sensi di colpa, irritabilità quando si è lontani dallo schermo e consapevolezza di aver superato i confini, senza però riuscire a fermarsi. Nei casi più gravi, l’interazione con il sistema può influire negativamente sulla qualità della vita, sulle relazioni personali e sul rendimento scolastico o lavorativo, proprio come accade con l’abuso di sostanze come droghe o alcol.
L’amico virtuale
Si verifica quindi una perdita di controllo, ma non solo. Sono significativi anche gli aspetti emotivi e relazionali. Molti giovani tendono a sviluppare un attaccamento affettivo con il compagno virtuale, attratti dalla disponibilità continua e dall’assenza di giudizio. “Man mano che l’algoritmo apprende a conoscere l’utente, riesce a fornire risposte che soddisfano le sue aspettative, rafforzando progressivamente una presunta amicizia. Se non si è in grado di gestire la situazione, iniziano a sorgere le problematiche”, afferma Laura Suardi, responsabile del Serd.
Ad essere maggiormente colpiti sono, come si può intuire, i ragazzi più vulnerabili, specialmente in situazioni di isolamento sociale.
Cosa dicono i dati
Secondo gli specialisti del Servizio, la storia della ventenne rappresenta solo la parte emersa di un problema più ampio: la questione rischia di diffondersi rapidamente, considerando l’uso sempre più esteso e pervasivo delle piattaforme.
Come evidenziato da un’analisi condotta in Italia nel 2025 da Save the Children, oltre nove adolescenti su dieci tra i 15 e i 19 anni hanno già utilizzato l’intelligenza artificiale, circa tre su dieci la utilizzano quotidianamente e una percentuale significativa la impiega per chiedere aiuto in momenti di tristezza, difficoltà o indecisione.
Questi dati trovano riscontro anche in Europa. Eurostat stima che, sempre nel 2025, il 63,8% dei giovani tra i 16 e i 24 anni abbia utilizzato strumenti generativi, quasi il doppio rispetto al resto della popolazione. Inoltre, un’indagine condotta dalla Commission nationale de l’informatique et des libertés (Cnil) e da Groupe VYV su 3.800 ragazzi in Francia, Germania, Svezia e Irlanda mostra che il 48% discute con gli algoritmi di argomenti personali o intimi, il 33% li considera come uno psicologo e il 69% ritiene che possano fornire consigli affidabili.
Altri studi condotti dai ricercatori dell’Università di Stanford, negli Stati Uniti, hanno dimostrato che l’intelligenza artificiale emotivamente coinvolgente, nelle mani di individui vulnerabili, può “rinforzare la ruminazione e la disregolazione delle emozioni”.
I tentativi di porre un freno
In risposta a questa situazione, le istituzioni stanno cercando di stabilire regole e linee guida. Il documento di indirizzo europeo dell’Organizzazione mondiale della sanità (Oms) del 2025 sottolinea il rapporto bidirezionale tra l’uso della tecnologia e la salute mentale, mentre la Commissione europea, nelle linee guida del Digital Services Act per la protezione dei minori, pone l’accento su design additivi, rabbit holes, notifiche, streaks, autoplay.
Tuttavia, limitare l’uso di tali strumenti non è sufficiente. “Di fronte a disturbi di questo tipo è necessario ricorrere a competenze psicologiche, ma anche psichiatriche, coinvolgendo i familiari dei pazienti”, sottolinea Suardi.
I commenti sono chiusi.