Meta impiegherà l’intelligenza artificiale per identificare gli utenti sotto i 13 anni su Facebook e Instagram, esaminando anche immagini e video. La comunicazione giunge in un momento in cui l’Unione Europea accusa l’azienda tecnologica di non garantire adeguate misure di protezione per i minori.
Leggi in app
Meta ha annunciato che i suoi sistemi di “age assurance”, ovvero i meccanismi utilizzati per valutare l’età reale degli utenti, impiegheranno anche l’analisi visiva di immagini e video attraverso l’uso di intelligenza artificiale.
Questa nuova tecnologia, presentata lo scorso anno per identificare in modo proattivo gli account che si sospetta appartengano a minorenni, trova ora un’applicazione concreta su Instagram nei 27 Paesi dell’Unione Europea e in Brasile.
Su Facebook, invece, il lancio avverrà immediatamente negli Stati Uniti; l’Unione Europea e il Regno Unito dovranno attendere fino a giugno prossimo.
L’azienda guidata da Mark Zuckerberg afferma che l’IA cercherà segnali generali come altezza, struttura ossea e altri indizi fisici, insieme a elementi testuali e comportamentali già utilizzati, per determinare se un account appartiene a un minore non autorizzato a utilizzare la piattaforma.
Un controllo più invasivo. “Ma non è riconoscimento facciale”
Meta sottolinea un aspetto importante: non desidera che questa tecnologia venga definita come riconoscimento facciale, poiché, sostiene, il sistema non identifica una persona specifica, ma si limita a stimarne la fascia d’età.
Si tratta, in effetti, di due tecnologie distinte: da un lato i sistemi biometrici che riconoscono un individuo, dall’altro gli strumenti che classificano caratteristiche generali per dedurre un attributo, in questo caso l’età.
Tuttavia, per chi osserva dall’esterno, il confine è meno netto di quanto Meta vorrebbe far credere. Se una piattaforma analizza foto e video per dedurre l’età di un utente, il passaggio rispetto ai metodi tradizionali di verifica basati su testo, segnalazioni e data di nascita fornita è evidente.
L’obiettivo è bloccare gli account dei giovanissimi
Secondo quanto comunicato da Meta, quando c’è una forte probabilità che un account appartenga a un under 13, può essere disattivato e l’utente dovrà dimostrare la propria età per evitare la cancellazione del profilo.
L’azienda afferma anche di voler semplificare le procedure di segnalazione degli account dei giovanissimi e di voler affiancare ai revisori umani modelli di IA per rendere le decisioni più rapide e coerenti.
Inoltre, Meta ha annunciato che inizierà ainviare notifiche ai genitori per aiutarli a verificare e confermare l’età dei propri figli sulle applicazioni social gestite dall’azienda.
Queste notifiche includeranno anche suggerimenti su come i genitori possano avere conversazioni costruttive con i loro figli riguardo all’importanza di fornire la propria età corretta online.
Bruxelles dice che Meta non ha fatto abbastanza
Il fatto è che, in Europa, Meta arriva a questo annuncio con un procedimento già in corso.
Il 29 aprile scorso, la Commissione europea ha comunicato le conclusioni preliminari di un’indagine che accusa Facebook e Instagram – le due principali piattaforme controllate da Meta – di non aver rispettato il Digital Services Act nella parte che richiede di identificare, valutare e ridurre i rischi per i minori.
Meta non sarebbe riuscita a impedire in modo efficace l’accesso ai propri servizi ai minori di 13 anni. Inoltre, una volta entrati, i sistemi della società non consentirebbero di individuarli e rimuoverli con sufficiente rapidità.
L’Ue contesta, in particolare, la dipendenza di Meta dall’età autodichiarata dai suoi utenti. Se un ragazzo sotto i 13 anni inserisce una data di nascita falsa che lo fa apparire più grande, sostiene la Commissione, non esistono controlli realmente efficaci per verificare tale informazione.
Per questo Meta accelera sull’analisi visiva: insieme ai segnali comportamentali, rappresenta la risposta dell’azienda a una contestazione molto specifica dell’Ue, non solo un aggiornamento tecnico.
La vera posta in gioco è chi controllerà l’età online
Fino ad ora la questione era se le piattaforme stessero facendo abbastanza per impedire ai più piccoli di accedere. Ora la domanda si amplia: chi deve effettivamente svolgere il controllo dell’età e con quali strumenti.
Meta sostiene da tempo, in sostanza, che l’intero settore necessiti di soluzioni più ampie e standardizzate. L’Europa si sta muovendo proprio in quella direzione.
La Commissione europea ha infatti recentemente invitato gli Stati membri ad accelerare il lancio dell’app europea per la verifica dell’età, che dovrebbe diventare disponibile entro la fine del 2026, a meno che non si risolvano problemi di sicurezza emersi prima del suo lancio ufficiale.
L’obiettivo è fornire un sistema che consenta di dimostrare di aver superato una certa soglia di età senza condividere dati non necessari con le piattaforme. La tecnologia utilizzata dalla nuova app dovrebbe infatti comunicare ai social soltanto una risposta del tipo “over 18: sì o no”, senza trasferire nome, data di nascita o altri dati sensibili.
Ue vs. Meta: due visioni e approcci differenti
Qui emerge la differenza di filosofia. Il modello Meta è interno alla piattaforma: la società analizza testi, interazioni, immagini e comportamenti per dedurre l’età probabile di chi utilizza il servizio.
Il modello europeo, almeno nelle intenzioni, vuole essere esterno e rispettoso il più possibile della privacy: utilizza un’infrastruttura separata che certifica il superamento di una soglia anagrafica e riduce al minimo la quantità di dati visibili alla piattaforma a cui si intende accedere.
In altre parole, Meta cerca di comprendere chi sei osservando ciò che fai e ciò che mostri; Bruxelles vorrebbe che il controllo avvenisse invece tramite una prova d’età standardizzata e meno intrusiva dal punto di vista informativo.
Non è detto che i due approcci si escludano. Anzi, è probabile che coesistano. Le piattaforme continueranno a utilizzare sistemi interni per identificare profili sospetti, mentre i governi e la Commissione spingeranno per strumenti di verifica più formali quando la legge lo richiederà.
Ma proprio questa coesistenza rischia di generare una nuova frizione: più cresce la pressione per tenere lontani i minori, maggiori sono gli incentivi per le piattaforme a monitorare attentamente contenuti, immagini e segnali personali.
Un cambio di fase per i social
Introdurre l’IA per dedurre l’età consente a Meta di rafforzare una funzione di sicurezza, ma implica anche, di fatto, che la precedente verifica basata quasi esclusivamente sulle dichiarazioni degli utenti non è più sostenibile né tecnicamente né politicamente.
E lo fa nel momento in cui l’Europa la accusa formalmente di aver consentito l’accesso a troppi under 13 e minaccia sanzioni milionarie.
Per i social, il passaggio è delicato. Se i controlli rimangono insufficienti, si rischiano sanzioni e accuse di irresponsabilità nei confronti dei minori. Se invece i controlli diventano più severi, cresce il timore di una sorveglianza più capillare sugli utenti, anche quando viene presentata con formule rassicuranti come “non è riconoscimento facciale”.
I commenti sono chiusi.