Instagram introduce in Italia i contenuti “13+” e nuovi strumenti di filtraggio per tutelare i minori.

Leggi in app

Instagram introduce in Italia i contenuti "13+" e nuovi strumenti di filtraggio per tutelare i minori. 1 Instagram introduce in Italia i contenuti "13+" e nuovi strumenti di filtraggio per tutelare i minori. 3

Meta cerca di riformulare l’esperienza degli adolescenti su Instagram ispirandosi a un modello familiare per i genitori: la classificazione dei contenuti cinematografici. L’azienda ha infatti comunicato l’estensione anche in Italia degli account per teenager con impostazione predefinita “13+”, già lanciata nell’ottobre scorso in paesi come Stati Uniti, Regno Unito, Canada e Australia.

L’intento è evidente: rendere ciò che un adolescente osserva sulla piattaforma più simile a un film appropriato per la sua età. Non si tratta di un ambiente completamente privo di rischi, ma di uno spazio in cui eventuali contenuti leggermente espliciti o “indelicati” siano limitati e monitorati. Tutti gli utenti sotto i 18 anni saranno automaticamente inclusi in questo ambito e non potranno modificarlo senza l’approvazione dei genitori.

Un modello “13+” adattato ai social

Il passaggio cruciale è l’allineamento delle politiche di Instagram ai tradizionali criteri di classificazione dei film per i 13 anni e oltre. Non si tratta di una semplice applicazione meccanica, poiché i social operano con dinamiche così complesse che un approccio così lineare farebbe sorridere gli esperti che da anni analizzano fenomeni come le “echo platform”, ma rappresenta un riferimento che Meta considera più intuitivo per le famiglie. Oltre alle restrizioni già esistenti su contenuti sessuali espliciti, violenza o promozione di prodotti per adulti, vengono introdotti limiti più specifici. Saranno ridotti o esclusi contenuti con linguaggio particolarmente forte, sfide potenzialmente pericolose e materiali che possano incoraggiare comportamenti rischiosi, compresi quelli legati all’uso di sostanze. Si continua a operare sul fronte dei contenuti e non su quello dei meccanismi sottostanti, che sono al centro dei recenti processi negli Stati Uniti contro il cosiddetto “addictive design”, ma si intravede un passo in quella direzione.

A proposito di passi: facciamone uno (notevole) indietro. Il rating PG-13 è stato introdotto nel 1984 negli Stati Uniti dalla Motion Picture Association dopo le polemiche su film come Indiana Jones e il tempio maledetto e Gremlins (che oggi, sì, suscitano ilarità). Queste opere, troppo intense per i bambini ma non adatte a un divieto totale, evidenziarono un vuoto tra PG e R, cioè fra le precedenti categorizzazioni PG (Parental Guidance), che fino ad allora indicava film visibili da tutti, ma con contenuti che potevano non essere appropriati per i bambini e la cui visione era lasciata alla discrezione dei genitori, senza divieti formali, e R (Restricted), che segnalava invece contenuti più maturi – violenza, linguaggio esplicito, sesso – e prevedeva che i minori di 17 anni potessero entrare in sala solo se accompagnati da un adulto. La nuova categoria servì quindi a creare una fascia intermedia.

Filtri più estesi: account, ricerca, contenuti

L’intervento non riguarda infatti solo il feed ma l’intera architettura della piattaforma. Gli adolescenti non potranno, ad esempio, seguire account che pubblicano regolarmente contenuti non adatti alla loro età. E, se già li seguono, perderanno la possibilità di interagire o anche solo visualizzare post e commenti. Quegli stessi account non potranno contattarli né essere suggeriti dall’algoritmo. Sul fronte della ricerca, il sistema amplia il blocco di termini sensibili: non solo suicidio o disturbi alimentari ma anche parole legate a contenuti “maturi” come alcol o violenza, con un’attenzione anche alle varianti ortografiche per aggirare i filtri. I contenuti che non rispettano le nuove linee guida vengono esclusi dalle raccomandazioni – Esplora, Reels, feed – ma anche da storie, commenti e messaggi diretti. Parallelamente, Meta aggiorna anche le risposte generate dall’intelligenza artificiale per mantenerle coerenti con lo standard 13+. Tutto ciò naturalmente vale solo nel momento in cui quell’account sia per teenager e non standard. È necessario insomma che ci sia qualcuno che guidi e supervisioni l’esperienza social dell’utente minorenne.

Il livello “extra”: contenuti limitati

Per le famiglie che desiderano un controllo più rigoroso, arriva anche la modalità “contenuti limitati”. Qui la restrizione è maggiore: si riduce drasticamente la quantità di contenuti visibili e, soprattutto, vengono disabilitate alcune interazioni sociali, come la possibilità di vedere, lasciare o ricevere commenti. È un passaggio significativo perché introduce e ufficializza, di fatto, una versione più “passiva” dell’esperienza social, che attenua uno degli aspetti più critici per i minori: l’esposizione al giudizio pubblico e alle dinamiche di engagement.

Il contesto italiano: tra divieti e verifiche dell’età

L’annuncio di Meta si colloca in un contesto italiano tutt’altro che chiaro. Negli ultimi giorni, sull’onda dei movimenti internazionali in questo ambito, è tornata in discussione una proposta bipartisan sul divieto di accesso ai social per i minori, rimasta in sospeso per mesi e ora riemersa nel dibattito politico. Parallelamente, il governo starebbe considerando di sostituirla con soluzioni alternative, in particolare con l’introduzione di sistemi più efficaci di verifica dell’età da imporre alle piattaforme come quelli già obbligatori per le piattaforme pornografiche e introdotti dall’Agcom dallo scorso autunno. Il nodo resta sempre lo stesso: le piattaforme possono rafforzare i filtri ma senza un sistema di verifica dell’età solido e compatibile con la privacy e l’effettiva adozione di questi account specifici per i minori, il perimetro rimane a dir poco vulnerabile. Le proposte in campo oscillano tra soluzioni centralizzate, identità digitali e meccanismi di certificazione anonima, ma nessuna ha ancora trovato un equilibrio normativo e tecnico condiviso. Nel frattempo, il dibattito pubblico continua a oscillare tra due estremi. Da un lato l’idea di vietare tout court l’accesso ai social sotto una certa età, dall’altro quella di responsabilizzare piattaforme e famiglie attraverso strumenti più sofisticati di controllo e accompagnamento. Alcuni esperti hanno perfino suggerito di multare i genitori.

Un passo avanti, ma non risolutivo

La mossa di Meta rappresenta dunque un apprezzabile tentativo concreto di standardizzare l’esperienza dei più giovani e di renderla più prevedibile per i genitori. Tuttavia, rimane una soluzione interna alla piattaforma, che non risolve le criticità sistemiche e politiche sulle quali, d’altronde, sono le stesse piattaforme a richiedere un approccio univoco a livello europeo: dall’efficacia reale dei filtri algoritmici alla possibilità di aggirarli, fino al tema del controllo dell’età. È opportuno ricordare quali siano i principali disegni di legge sul tema o le proposte politico-tecniche presentate in Italia. Anzitutto la cosiddetta proposta Carfagna, riconducibile alla segretaria di Noi Moderati, deputata ed ex ministra Mara Carfagna, che introdurrebbe il divieto assoluto di accesso ai social network per i minori di 13 anni. Per i ragazzi tra i 13 e i 16 anni sarebbe invece previsto un “regime protetto”, limitando l’uso di algoritmi. C’è poi l’approccio di Antonio Nicita e Lorenzo Basso (senatori PD), che punta sulla regolazione del design persuasivo. Qui l’attenzione non sembra tanto su chi e come potrebbe accedere quanto sull’architettura delle piattaforme: algoritmi, notifiche, scroll infinito e meccanismi di engagement vengono considerati come elementi che possono influenzare in modo sproporzionato i minori e che quindi andrebbero limitati o resi più trasparenti. È la linea più vicina agli approcci che stanno seguendo i giudici nei processi statunitensi contro i colossi dei social media. La sintesi Madia-Mennuni, proposta dalla deputata PD Marianna Madia e dalla senatrice di Fratelli d’Italia Lavinia Mennuni, che cerca di combinare le due impostazioni con un divieto ai 14 o ai 15 anni, occupandosi fra l’altro anche dei cosiddetti baby influencer. Più rigorosa è invece l’impostazione della proposta di Giorgia Latini della , appena depositata a Montecitorio, che prevede l’uso dei social network vietato ai minori di 15 anni e consentito oltre quella soglia solo con il consenso dei genitori verificabile.

I commenti sono chiusi.