Instagram notificherà i genitori qualora i figli ricercassero parole collegate a suicidio o autolesionismo.

Instagram notificherà i genitori qualora i figli ricercassero parole collegate a suicidio o autolesionismo. 1

Instagram ha comunicato che inizierà a notificare i genitori nel caso in cui i loro figli effettuino ricerche ripetute su termini chiaramente legati al suicidio o all’autolesionismo. Le notifiche saranno inviate esclusivamente ai genitori che partecipano al programma di supervisione parentale di Instagram. La piattaforma sociale già impedisce la visualizzazione di tali contenuti nei risultati di ricerca degli account degli adolescenti e guida gli utenti verso linee di supporto telefonico. Gli avvisi verranno inviati tramite e-mail, SMS o WhatsApp, a seconda delle informazioni di contatto disponibili, oltre a una notifica sull’account Instagram dei genitori.

Attivi dalla prossima settimana, ma non in Italia

“Il nostro intento è quello di permettere ai genitori di intervenire qualora le ricerche dei loro figli adolescenti indichino che potrebbero necessitare di supporto. Vogliamo anche evitare di inviare queste notifiche in modo eccessivo, poiché se lo facessimo troppo frequentemente, le notifiche potrebbero risultare meno efficaci nel complesso”, ha dichiarato Meta. “Queste notifiche informeranno i genitori se un adolescente cerca di avviare conversazioni su temi legati al suicidio o all’autolesionismo con la nostra intelligenza artificiale”, ha aggiunto Meta, “si tratta di un’iniziativa significativa e nei prossimi mesi condivideremo ulteriori dettagli”. Gli avvisi saranno attivi a partire dalla prossima settimana per i genitori che utilizzano gli strumenti di supervisione parentale di Instagram negli Stati Uniti, nel Regno Unito, in Australia e in Canada, e saranno resi disponibili in altre aree più avanti nel corso dell’anno.

Non solo social

La piattaforma sociale sta lavorando per bloccare le ricerche di termini legati al suicidio e all’autolesionismo. In tali situazioni, non vengono mostrati risultati e gli utenti vengono invece indirizzati verso risorse e organizzazioni locali in grado di fornire supporto, anche quando le ricerche non sono esplicitamente correlate a suicidio e autolesionismo, ma riguardano più in generale la salute mentale. Inoltre, se il rischio di danno fisico per chi utilizza il social è immediato, scatta l’allerta per i servizi di emergenza.

Meta chiarisce anche che la propria intelligenza artificiale è già formata per rispondere in modo sicuro agli adolescenti e fornire risorse adeguate su questi temi, e aggiunge che sta sviluppando avvisi simili per i genitori in alcune esperienze basate su intelligenza artificiale. Questi avvisi notificheranno i genitori se un adolescente tenterà di avviare conversazioni con l’intelligenza artificiale della piattaforma su temi legati al suicidio o all’autolesionismo.

I processi in corso

L’annuncio giunge mentre Meta è coinvolta in due cause legali negli Stati Uniti per danni ai minori. Un processo attualmente in corso a Los Angeles mette in discussione se le piattaforme di Meta creino intenzionalmente dipendenza e danneggino i minori. Un altro, nel New Mexico, cerca di stabilire se Meta abbia trascurato di proteggere i bambini dallo sfruttamento sessuale sulle sue piattaforme. Migliaia di famiglie, insieme a distretti scolastici ed enti governativi, hanno citato in giudizio Meta e altre aziende di social media sostenendo che progettano deliberatamente le loro piattaforme in modo da generare dipendenza e non proteggono i bambini da contenuti che possono portare a depressione, disturbi alimentari e suicidio.

I commenti sono chiusi.