Giovani vulnerabili nel contesto digitale: le raccomandazioni dell’Unicef per la loro salvaguardia.

Giovani vulnerabili nel contesto digitale: le raccomandazioni dell'Unicef per la loro salvaguardia. 1

Si intensifica l’allerta riguardo all’uso inconsapevole e rischioso di Internet e dei social media da parte dei giovani. Mentre nazioni come l’Australia, pioniera in questo, la Francia e altri stati europei stanno imponendo divieti all’accesso ai social per i minorenni, in occasione del Safe Internet Day, l’Unicef lancia un nuovo allarme: uno studente su cinque di 10 anni in 26 nazioni (su 32) non è in grado di discernere se un sito web sia attendibile o meno. Questo è estremamente preoccupante: significa che, navigando online, un bambino di quell’età non riesce a comprendere se le informazioni presenti siano affidabili.

In base ai dati forniti dall’Unicef, in Italia, la situazione non è molto diversa. Le statistiche indicano che tra i ragazzi di età compresa tra 9 e 16 anni, il 9,5% non ha competenze per modificare le impostazioni della privacy e 1 su 10 ha difficoltà a selezionare le parole chiave più appropriate per effettuare ricerche. Questi dati evidenziano un paradosso poco noto: quello dei falsi nativi digitali. Infatti, si presume erroneamente che, poiché un bambino sa scorrere un dito su uno schermo, possieda automaticamente una comprensione tecnica del mezzo. In realtà, esiste una significativa mancanza di alfabetizzazione digitale.

Consideriamo la questione della privacy. Non saper gestire la privacy implica consentire a algoritmi e sconosciuti di accedere a dati sensibili, come la geolocalizzazione, fotografie e abitudini. Le piattaforme sono progettate per essere aperte di default, per cui, in assenza di competenze proattive, i minori subiscono le decisioni commerciali dei social media.

Anche la difficoltà nel selezionare parole chiave efficaci indica una mancanza di pensiero critico e logico. Chi non sa cercare in modo adeguato finisce per consumare solo ciò che l’algoritmo propone passivamente. Infatti, una ricerca superficiale aumenta il rischio di imbattersi in disinformazione o contenuti inappropriati. In sintesi, l’Unicef ci sta comunicando che centinaia di migliaia di giovanissimi navigano nel vasto mare della rete, esposti a rischi costanti, senza una patente digitale.

L’Unicef ha anche messo in evidenza un altro problema in crescita: l’aumento del numero di immagini sessualizzate generate dall’IA. Molte di queste sono state manipolate. In uno studio condotto (da UNICEF, Ecpat e Interpol) in 11 paesi, almeno 1,2 milioni di bambini hanno dichiarato che le loro immagini sono state alterate in deepfake sessualmente espliciti. In alcuni dei paesi coinvolti nell’indagine, il fenomeno riguarda 1 bambino su 25. Quanti bambini ci sono in media in una classe? Ecco, la risposta è che uno di questi potrebbe essere vittima di immagini sessualizzate.

“È essenziale accompagnarli nello sviluppo di competenze digitali, spirito critico e consapevolezza – ha affermato Nicola Graziano, presidente dell’UNICEF Italia – I dati mostrano che troppi bambini faticano ancora a riconoscere fonti affidabili e a orientarsi online in modo sicuro. Pertanto, è necessario un impegno collettivo tra famiglie, scuole, istituzioni e aziende per creare ambienti digitali che proteggano i diritti dei bambini e promuovano il loro benessere, oggi e in futuro, garantendo il loro ascolto e la loro partecipazione.”

È complesso e tutt’altro che semplice per genitori e adulti verificare che i più piccoli navigano nel mondo digitale in modo sicuro, responsabile e lontano dai pericoli. Da qui l’idea di Unicef Italia di redigere un decalogo di 9 consigli pratici. Ecco una sintesi ragionata.

  1. Iniziare presto. I bambini potrebbero imbattersi nell’IA anche senza utilizzarla direttamente: vederla nei media, ascoltare le conversazioni degli adulti a casa, o magari a scuola. È utile introdurre l’IA in modo semplice, per spiegare loro il suo funzionamento. Ad esempio, se si osserva un video generato dall’IA o una pubblicità mirata, si potrebbe fermarsi un attimo e dire: “Vedi? Questa non è reale, è stata creata da un computer seguendo delle istruzioni”.
  2. Tenere presenti i rischi. Dispositivi o app dotati di IA raccolgono dati personali, espongono a contenuti fuorvianti o pericolosi; utilizzano strategie per mantenere alta l’attenzione per fini commerciali e potrebbero influenzare il modo di pensare dei bambini. È fondamentale insegnare ai bambini che l’IA non è un amico, ma un software commerciale. Se un’app è gratuita, si potrebbe spiegare loro che il prezzo è rappresentato dalle loro informazioni personali e dal loro tempo.
  3. Usare esempi quotidiani. I bambini piccoli comprendono meglio l’intelligenza artificiale quando è collegata a oggetti familiari, come gli altoparlanti smart. Ad esempio, si potrebbero porre domande assurde come: “Come si cucina una scarpa?”, per dimostrare che l’IA non ragiona, ma combina parole in base a schemi statistici.
  4. Aiutare i bambini a imparare con l’IA. L’intelligenza artificiale può supportare l’apprendimento dei bambini spiegando concetti in modo chiaro. Può fungere da tutor, non da ghostwriter che svolge i compiti al loro posto. Invece di chiedere all’IA “Scrivi il tema”, si potrebbe suggerire: “Fai tre esempi di come potrei iniziare questo tema”.
  5. Proteggere la privacy del vostro bambino. Gli strumenti di intelligenza artificiale potrebbero richiedere informazioni come l’età del bambino o i contatti del genitore. I bambini possono anche condividere dati personali durante l’uso quotidiano, come nomi, abitudini, amicizie o sentimenti. Qui è importante stabilire una regola ferrea: “Mai dire all’IA segreti, nomi di amici, dove viviamo o come ci sentiamo davvero”.
  6. Imparare insieme. Molti adulti si sentono insicuri nel guidare i bambini, dato che l’IA si evolve così rapidamente, quindi imparare insieme può essere un buon punto di partenza. Il genitore non deve essere un esperto informatico, ma un compagno di esplorazione.
  7. Prestare attenzione ai segnali di allerta. L’IA può diventare un rifugio emotivo o una dipendenza. Se il bambino si isola o preferisce interagire con un chatbot piuttosto che con i coetanei, è necessario intervenire. Il segnale critico è la reazione di rabbia quando viene chiesto di spegnere il dispositivo: indica che il controllo è passato dall’utente alla macchina. È importante concordare limiti semplici e controlli regolari.
  8. Dialogare apertamente con la scuola. Scuola e famiglia devono avere una linea comune per evitare messaggi contraddittori. Se i bambini abusano dell’IA per i compiti scolastici, spesso il problema è legato alla motivazione o alla preparazione.
  9. Mantenere l’IA nella giusta prospettiva. L’IA sta diventando una parte sempre più rilevante del gioco, ma è uno strumento, non il mondo intero. Attività come sport, lettura di libri cartacei, giochi da tavolo e passeggiate devono continuare a essere le attività principali. Sempre.

I commenti sono chiusi.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More