Meta impiegherà l’intelligenza artificiale per identificare gli utenti sotto i 13 anni su Facebook e Instagram, esaminando anche immagini e video. L’informativa giunge in un momento in cui l’Unione Europea accusa il gigante tecnologico di non garantire adeguate misure di protezione per i giovani.

Leggi in app

Meta impiegherà l'intelligenza artificiale per identificare gli utenti sotto i 13 anni su Facebook e Instagram, esaminando anche immagini e video. L'informativa giunge in un momento in cui l'Unione Europea accusa il gigante tecnologico di non garantire adeguate misure di protezione per i giovani.0 Meta impiegherà l'intelligenza artificiale per identificare gli utenti sotto i 13 anni su Facebook e Instagram, esaminando anche immagini e video. L'informativa giunge in un momento in cui l'Unione Europea accusa il gigante tecnologico di non garantire adeguate misure di protezione per i giovani. 2

Meta ha annunciato che i suoi sistemi di “age assurance”, ovvero i metodi utilizzati per valutare l’età reale degli utenti, impiegheranno anche l’analisi visiva di immagini e video tramite l’uso di intelligenza artificiale.

Questa nuova tecnologia, presentata lo scorso anno per identificare in modo proattivo gli account che si sospetta appartengano a minorenni, trova ora una concreta applicazione su Instagram nei 27 Stati membri dell’Unione Europea e in Brasile.

Per quanto riguarda Facebook, il lancio avverrà immediatamente negli Stati Uniti; l’Unione Europea e il Regno Unito dovranno attendere fino a giugno prossimo.

L’azienda guidata da Mark Zuckerberg afferma che l’IA cercherà segnali generali come altezza, struttura ossea e altri indizi fisici, insieme a elementi testuali e comportamentali già utilizzati, per determinare se un account appartiene a un minore che non dovrebbe essere presente sulla piattaforma.

Un controllo più invasivo. “Ma non è riconoscimento facciale”

Meta sottolinea un aspetto importante: non desidera che questa tecnologia venga definita come riconoscimento facciale, poiché, sostiene, il sistema non identifica una persona specifica ma cerca solo di stimarne la fascia d’età.

Si tratta, in effetti, di due tecnologie distinte: da un lato i sistemi biometrici che riconoscono un individuo, dall’altro gli strumenti che classificano caratteristiche generali per dedurre un attributo, in questo caso l’età.

Tuttavia, per chi osserva dall’esterno, il confine è meno chiaro di quanto Meta vorrebbe far credere. Se una piattaforma analizza foto e video per dedurre l’età di un utente, il passaggio rispetto ai metodi tradizionali di verifica basati su testo, segnalazioni e data di nascita fornita è evidente.

L’obiettivo è bloccare gli account dei giovanissimi

Secondo quanto dichiarato da Meta, quando c’è una forte probabilità che un account appartenga a un under 13, può essere disattivato e l’utente dovrà dimostrare la propria età per evitare la cancellazione del profilo.

L’azienda afferma anche di voler semplificare le procedure di segnalazione degli account dei giovanissimi e di voler affiancare ai revisori umani modelli di IA per rendere le decisioni più rapide e coerenti.

Inoltre, Meta ha annunciato che inizierà ainviare notifiche ai genitori per aiutarli a verificare e confermare l’età dei propri figli sulle applicazioni social gestite dall’azienda.

Queste notifiche includeranno anche suggerimenti su come i genitori possono intrattenere conversazioni costruttive con i loro figli riguardo all’importanza di fornire la propria età corretta online.

Bruxelles dice che Meta non ha fatto abbastanza

Il fatto è che, in Europa, Meta arriva a questo annuncio con un procedimento già in corso.

Il 29 aprile scorso, la Commissione europea ha comunicato le conclusioni preliminari di un’indagine che accusa Facebook e Instagram – le due principali piattaforme controllate da Meta – di non aver rispettato il Digital Services Act nella parte che richiede di identificare, valutare e ridurre i rischi per i minori.

Meta non sarebbe riuscita a impedire in modo efficace l’accesso ai propri servizi ai minori di 13 anni. Inoltre, una volta entrati, i sistemi della società non consentirebbero di individuarli e rimuoverli con sufficiente rapidità.

L’Ue contesta, in particolare, la dipendenza di Meta dall’età autodichiarata dai suoi utenti. Se un ragazzo sotto i 13 anni inserisce una data di nascita falsa che lo fa apparire più grande, sostiene la Commissione, non esistono controlli realmente efficaci per verificare tale informazione.

Per questo Meta accelera sull’analisi visiva: insieme ai segnali comportamentali, rappresenta la risposta dell’azienda a una contestazione molto specifica dell’Ue, non solo un aggiornamento tecnico.

La vera posta in gioco è chi controllerà l’età online

Fino ad ora la questione era se le piattaforme stessero facendo abbastanza per impedire ai più piccoli di accedere. Ora la domanda si amplia: chi deve effettivamente svolgere il controllo dell’età e con quali strumenti.

Meta sostiene da tempo, in sostanza, che l’intero settore avrebbe bisogno di soluzioni più ampie e standardizzate. L’Europa si sta muovendo proprio in quella direzione.

La Commissione europea ha infatti recentemente invitato gli Stati membri ad accelerare il lancio dell’app europea per la verifica dell’età, che dovrebbe diventare disponibile entro la fine del 2026, a meno che non si riescano a risolvere problemi di sicurezza emersi prima del suo lancio ufficiale.

L’obiettivo è fornire un sistema che consenta di dimostrare di aver superato una certa soglia di età senza condividere dati non necessari con le piattaforme. La tecnologia utilizzata dalla nuova app dovrebbe infatti comunicare ai social soltanto una risposta del tipo “over 18: sì o no”, senza trasferire nome, data di nascita o altri dati sensibili.

Ue vs. Meta: due visioni e approcci differenti

Qui emerge la differenza di filosofia. Il modello Meta è interno alla piattaforma: la società analizza testi, interazioni, immagini e comportamenti per dedurre l’età probabile di chi utilizza il servizio.

Il modello europeo, almeno nelle intenzioni, intende essere esterno e rispettoso il più possibile della privacy: utilizza un’infrastruttura separata che certifica il superamento di una soglia anagrafica e riduce al minimo la quantità di dati visibili alla piattaforma a cui si desidera accedere.

In altre parole, Meta cerca di comprendere chi sei osservando ciò che fai e ciò che mostri; Bruxelles vorrebbe che il controllo avvenisse invece attraverso una prova d’età standardizzata e meno invasiva sul piano informativo.

Non è detto che i due approcci si escludano. Anzi, è probabile che convivano. Le piattaforme continueranno a utilizzare sistemi interni per identificare profili sospetti, mentre i governi e la Commissione spingeranno per strumenti di verifica più formali quando la legge lo richiederà.

Ma proprio questa coesistenza rischia di generare una nuova frizione: più cresce la pressione per tenere fuori i minori, maggiori sono gli incentivi per le piattaforme a monitorare da vicino contenuti, immagini e segnali personali.

Un cambio di fase per i social

Introducendo l’IA per dedurre l’età, Meta rafforza una funzione di sicurezza ma sta anche riconoscendo, di fatto, che la precedente verifica basata quasi esclusivamente sulle dichiarazioni degli utenti non è più sostenibile né tecnicamente né politicamente.

E lo fa nel momento in cui l’Europa la accusa formalmente di aver permesso l’accesso a troppi under 13 e minaccia sanzioni milionarie.

Per i social, il passaggio è delicato. Se i controlli rimangono deboli, si rischiano sanzioni e accuse di irresponsabilità verso i minori. Se invece i controlli diventano più severi, cresce il timore di una sorveglianza più capillare sugli utenti, anche quando viene presentata con formule rassicuranti come “non è riconoscimento facciale”.

I commenti sono chiusi.