Instagram introduce in Italia i contenuti “13+” e nuovi strumenti di filtraggio per tutelare i minori.

Leggi in app

Instagram introduce in Italia i contenuti "13+" e nuovi strumenti di filtraggio per tutelare i minori. 1 Instagram introduce in Italia i contenuti "13+" e nuovi strumenti di filtraggio per tutelare i minori. 3

Meta cerca di riformulare l’esperienza degli adolescenti su Instagram, adottando un approccio ispirato a un contesto familiare per i genitori: la classificazione dei contenuti cinematografici. L’azienda ha infatti annunciato l’estensione anche in Italia degli account per teenager con impostazione predefinita “13+”, già lanciata nell’ottobre scorso in paesi come Stati Uniti, Regno Unito, Canada e Australia.

L’intento è evidente: rendere ciò che un adolescente visualizza sulla piattaforma più simile a un film appropriato per la sua età. Non si tratta di un ambiente completamente sicuro, certo, ma di uno spazio in cui eventuali contenuti leggermente espliciti o “indelicati” siano marginali e monitorati. Tutti gli utenti sotto i 18 anni verranno automaticamente collocati in questo ambito e non potranno modificarlo senza l’approvazione dei genitori.

Un modello “13+” adattato ai social

Il passaggio cruciale è l’allineamento delle politiche di Instagram ai tradizionali criteri di classificazione dei film per i 13 anni e oltre. Non si tratta di una semplice trasposizione, i social operano in dinamiche così complesse che un approccio così lineare farebbe sorridere gli esperti che da anni analizzano fenomeni come le “echo platform”, ma è un riferimento che Meta considera più intuitivo per le famiglie. Oltre alle restrizioni già esistenti su contenuti sessuali espliciti, violenza o promozione di prodotti per adulti, vengono introdotti limiti più dettagliati. Saranno ridotti o esclusi contenuti con linguaggio particolarmente forte, sfide potenzialmente pericolose e materiali che possano incoraggiare comportamenti rischiosi, inclusi quelli legati all’uso di sostanze. Si continua a operare sul fronte dei contenuti e non su quello dei meccanismi sottostanti, al centro ad esempio dei recenti processi negli Stati Uniti contro il cosiddetto “addictive design”, ma si intravede un passo in quella direzione.

A proposito di passi: facciamone uno (abbastanza) indietro. Il rating PG-13 è stato introdotto nel 1984 negli Stati Uniti dalla Motion Picture Association, dopo le polemiche suscitate da film come Indiana Jones e il tempio maledetto e Gremlins (che oggi, sì, suscitano ilarità). Queste opere, troppo intense per i bambini ma non adatte a un divieto totale, evidenziarono un vuoto tra PG e R, cioè tra le precedenti categorizzazioni PG (Parental Guidance), che fino ad allora indicava film visibili da tutti, ma con contenuti che potevano non essere appropriati per i bambini e la cui visione era lasciata alla discrezione dei genitori, senza divieti formali, e R (Restricted), che segnalava invece contenuti più maturi – violenza, linguaggio esplicito, sesso – e prevedeva che i minori di 17 anni potessero accedere alla sala solo se accompagnati da un adulto. La nuova categoria servì quindi a creare una fascia intermedia.

Filtri più estesi: account, ricerca, contenuti

L’intervento non si limita infatti solo al feed ma all’intera architettura della piattaforma. Gli adolescenti non potranno ad esempio più seguire account che pubblicano regolarmente contenuti non adatti alla loro età. E, se già li seguono, perderanno la possibilità di interagire o anche solo visualizzare post e commenti. Quegli stessi account non potranno contattarli né essere suggeriti dall’algoritmo. Sul fronte della ricerca, il sistema amplia il blocco di termini sensibili: non solo suicidio o disturbi alimentari ma anche parole legate a contenuti “maturi” come alcol o violenza, con un’attenzione anche alle varianti ortografiche per aggirare i filtri. I contenuti che non rispettano le nuove linee guida vengono esclusi dalle raccomandazioni – Esplora, Reels, feed – ma anche da storie, commenti e messaggi diretti. In parallelo, Meta aggiorna anche le risposte generate dall’intelligenza artificiale per mantenerle coerenti con lo standard 13+. Tutto ciò naturalmente vale solo nel momento in cui quell’account sia per teenager e non standard. È necessario insomma che ci sia qualcuno che guidi e supervisioni l’esperienza social dell’utente minorenne.

Il livello “extra”: contenuti limitati

Per le famiglie che desiderano un controllo più rigoroso, arriva anche la modalità “contenuti limitati”. Qui la restrizione è ancora più severa: si riduce drasticamente la quantità di contenuti visibili e, soprattutto, vengono disabilitate alcune interazioni sociali, come la possibilità di vedere, lasciare o ricevere commenti. È un passaggio significativo perché introduce e ufficializza, di fatto, una versione più “passiva” dell’esperienza social, che attenua uno degli aspetti più critici per i minori: l’esposizione al giudizio pubblico e alle dinamiche di engagement.

Il contesto italiano: tra divieti e verifiche dell’età

L’annuncio di Meta si colloca in un contesto italiano tutt’altro che chiaro. Negli ultimi giorni, sull’onda dei movimenti internazionali in questo settore, è tornata in discussione una proposta bipartisan sul divieto di accesso ai social per i minori, rimasta ferma per mesi e ora riemersa nel dibattito politico. Parallelamente, il governo starebbe considerando di sostituirla con soluzioni alternative, in particolare con l’introduzione di sistemi più efficaci di verifica dell’età da imporre alle piattaforme come quelli già obbligatori per le piattaforme pornografiche e introdotti dall’Agcom dallo scorso autunno. Il nodo rimane sempre lo stesso: le piattaforme possono rafforzare i filtri ma senza un sistema di verifica dell’età robusto e compatibile con la privacy e l’effettiva adozione di questi account specifici per i minori, il perimetro resta a dir poco permeabile. Le proposte in campo oscillano tra soluzioni centralizzate, identità digitali e meccanismi di certificazione anonima, ma nessuna ha ancora trovato un equilibrio normativo e tecnico condiviso. Nel frattempo, il dibattito pubblico continua a oscillare tra due estremi. Da un lato l’idea di vietare tout court l’accesso ai social sotto una certa età, dall’altro quella di responsabilizzare piattaforme e famiglie attraverso strumenti più sofisticati di controllo e accompagnamento. Alcuni esperti hanno persino suggerito di multare i genitori.

Un passo avanti, ma non risolutivo

La mossa di Meta rappresenta dunque un tentativo concreto e apprezzabile di standardizzare l’esperienza dei più giovani e di renderla più prevedibile per i genitori. Tuttavia rimane una soluzione interna alla piattaforma, che non risolve le criticità sistemiche e politiche sulle quali d’altronde sono le stesse piattaforme a richiedere un approccio univoco a livello europeo: dall’efficacia reale dei filtri algoritmici alla possibilità di aggirarli, fino al tema del controllo dell’età. È opportuno ricordare quali siano i principali disegni di legge sul tema o le proposte politico-tecniche presentate in Italia. Anzitutto la cosiddetta proposta Carfagna, riconducibile alla segretaria di Noi Moderati, deputata ed ex ministra Mara Carfagna, che introdurrebbe il divieto assoluto di accesso ai social network per i minori di 13 anni. Per i ragazzi tra i 13 e i 16 anni sarebbe invece previsto un “regime protetto”, limitando l’uso di algoritmi. C’è poi l’approccio di Antonio Nicita e Lorenzo Basso (senatori PD), che punta sulla regolazione del design persuasivo. Qui il focus non sembra tanto su chi e come potrebbe accedere quanto sull’architettura delle piattaforme: algoritmi, notifiche, scroll infinito e meccanismi di engagement vengono considerati elementi che possono influenzare in modo sproporzionato i minori e che quindi andrebbero limitati o resi più trasparenti. È la linea più vicina agli approcci che stanno seguendo i giudici nei processi statunitensi contro i colossi dei social media. La sintesi Madia-Mennuni, proposta dalla deputata PD Marianna Madia e dalla senatrice di Fratelli d’Italia Lavinia Mennuni, che cerca di combinare le due impostazioni con un divieto ai 14 o ai 15 anni, occupandosi fra l’altro anche dei cosiddetti baby influencer. Più rigoroso è invece l’impianto della proposta di Giorgia Latini della , recentemente depositata a Montecitorio, che prevede l’uso dei social network vietato ai minori di 15 anni e consentito oltre quella soglia solo con il consenso genitoriale verificabile.

I commenti sono chiusi.