Bambini vulnerabili nel contesto digitale: le raccomandazioni dell’Unicef per la loro tutela
Si intensifica l’allerta riguardo all’uso inconsapevole e rischioso di Internet e dei social media da parte dei più giovani. Mentre nazioni come l’Australia, pioniera in questo, la Francia e altri paesi europei stanno imponendo divieti di accesso ai social per gli adolescenti, in occasione del Safe Internet Day, l’Unicef lancia un ulteriore allerta: uno studente su cinque di 10 anni in 26 paesi (su 32) non è in grado di discernere se un sito web sia attendibile o meno. Questo è allarmante: significa che, navigando online, un bambino di quell’età non riesce a comprendere se le informazioni presenti siano affidabili.
In base ai dati forniti dall’Unicef, la situazione in Italia non è purtroppo molto diversa. Le statistiche indicano che tra i bambini e i ragazzi di età compresa tra 9 e 16 anni, il 9,5% non ha competenze nel modificare le impostazioni della privacy e 1 su 10 ha difficoltà a selezionare le parole chiave più appropriate per effettuare ricerche. Questi dati evidenziano un paradosso poco noto: quello dei falsi nativi digitali. Infatti, si presume erroneamente che, poiché un bambino sa scorrere un dito su uno schermo, possieda automaticamente una comprensione tecnica del mezzo. In realtà, c’è una significativa mancanza di alfabetizzazione digitale.
Consideriamo la questione della privacy. Non saper gestire la privacy implica consentire a algoritmi e sconosciuti di accedere a informazioni sensibili, come la geolocalizzazione, foto, abitudini. Le piattaforme sono progettate per essere aperte di default, quindi senza competenze attive, i minori subiscono le scelte commerciali dei social media.
La difficoltà nel selezionare parole chiave efficaci evidenzia anche una mancanza di pensiero critico e logico. Chi non sa cercare in modo adeguato finisce per consumare solo ciò che l’algoritmo gli propone passivamente. Infatti, una ricerca superficiale aumenta il rischio di imbattersi in disinformazione o contenuti inappropriati. In sintesi, l’Unicef ci sta avvisando che centinaia di migliaia di giovanissimi navigano nel vasto mare della rete, esposti a rischi costanti, senza una patente digitale.
L’Unicef ha inoltre messo in evidenza un altro problema in crescita: l’aumento del numero di immagini sessualizzate generate dall’IA. Molte di queste sono state manipolate. In uno studio condotto (da UNICEF, Ecpat e Interpol) in 11 paesi, almeno 1,2 milioni di bambini hanno dichiarato che le loro immagini sono state alterate in deepfake sessualmente espliciti. In alcuni dei paesi coinvolti nell’indagine, il fenomeno riguarda 1 bambino su 25. Quanti bambini ci sono in media in una classe? Ecco, la risposta è che uno di questi potrebbe essere vittima di immagini sessualizzate.
“È essenziale accompagnarli nello sviluppo di competenze digitali, spirito critico e consapevolezza – ha dichiarato Nicola Graziano, presidente dell’UNICEF Italia – I dati mostrano che troppi bambini faticano ancora a riconoscere fonti affidabili e a orientarsi online in modo sicuro. Per questo è fondamentale un impegno collettivo tra famiglie, scuole, istituzioni e aziende per creare ambienti digitali che tutelino i diritti dei bambini e ne promuovano il benessere, oggi e in futuro, garantendo il loro ascolto e la loro partecipazione.”
È complesso e per nulla semplice per genitori e adulti verificare che i più piccoli navigano nel mondo digitale in modo sicuro, responsabile e lontano dai pericoli. Da qui l’iniziativa di Unicef Italia di redigere un decalogo di 9 consigli pratici. Ecco una sintesi ragionata.
- Iniziare presto. I bambini potrebbero imbattersi nell’IA anche senza utilizzarla direttamente: vederla nei media, ascoltare le conversazioni degli adulti a casa, o magari a scuola. È utile introdurre l’IA in modo semplice, per spiegare loro come funziona. Ad esempio, se osservi un video generato dall’IA o una pubblicità mirata, fermati un attimo e potresti dire: “Vedi? Questa immagine non è reale, è stata creata da un computer seguendo delle istruzioni”.
- Tenere presenti i rischi. Dispositivi o app dotati di IA raccolgono dati personali, espongono a contenuti fuorvianti o pericolosi; utilizzano strategie per mantenere alta l’attenzione per scopi commerciali e potrebbero influenzare il modo di pensare dei bambini. È importante insegnare ai bambini che l’IA non è un amico, ma un software commerciale. Se un’app è gratuita, si potrebbe spiegare loro che il costo sono le loro informazioni personali e il loro tempo.
- Usare esempi quotidiani. I bambini piccoli comprendono meglio l’intelligenza artificiale quando è collegata a oggetti familiari, come gli altoparlanti smart. Ad esempio, si potrebbero porre domande assurde come: “Come si cucina una scarpa?”, per dimostrare che l’IA non ragiona, ma combina parole basandosi su schemi statistici.
- Aiutare i bambini a imparare con l’IA. L’intelligenza artificiale può supportare l’apprendimento dei bambini spiegando le idee in modo chiaro. Può fungere da tutor, non da ghostwriter che svolge i compiti al loro posto. Invece di chiedere all’IA “Scrivi il tema”, potremmo suggerire: “Fai tre esempi di come potrei iniziare questo tema”.
- Proteggere la privacy del vostro bambino. Gli strumenti di intelligenza artificiale potrebbero richiedere dettagli come l’età del bambino o le informazioni di contatto del genitore. I bambini possono anche condividere informazioni personali durante l’uso quotidiano, come nomi, abitudini, amicizie o sentimenti. È fondamentale stabilire una regola ferrea: “Mai dire all’IA segreti, nomi di amici, dove viviamo o come ci sentiamo davvero”.
- Imparare insieme. Molti adulti si sentono insicuri nel guidare i bambini, dato che l’IA si evolve così rapidamente, quindi imparare a conoscere può essere un buon punto di partenza. Il genitore non deve essere un esperto informatico, ma un compagno di esplorazione.
- Prestare attenzione ai segnali di allerta. L’IA può diventare un rifugio emotivo o una dipendenza. Se il bambino si isola o preferisce interagire con un chatbot piuttosto che con i coetanei, è necessario intervenire. Il segnale critico è la reazione di rabbia quando viene chiesto di spegnere il dispositivo: indica che il controllo è passato dall’utente alla macchina. È utile concordare semplici limiti e controlli regolari.
- Dialogare apertamente con la scuola. Scuola e famiglia devono avere una linea comune per evitare messaggi contraddittori. Se i bambini abusano dell’IA per i compiti scolastici, spesso il problema è legato alla motivazione o alla preparazione.
- Mantenere l’IA nella giusta prospettiva. L’IA sta diventando una parte sempre più rilevante del gioco, ma è uno strumento, non il mondo intero. Sport, lettura di libri cartacei, giochi da tavolo e passeggiate devono continuare a essere le attività primarie. Sempre.
I commenti sono chiusi.