Smascherare i deepfake è una fatica inutile. Conviene certificare la realtà

Smascherare i deepfake è una fatica inutile. Conviene certificare la realtà 1

Illustrazione creata con Midjourney 

Per anni, immagini e video hanno funzionato come una scorciatoia mentale: osservare equivaleva, nella maggior parte dei casi, a credere. Questa certezza si sta rapidamente dissolvendo.

L’emergere di strumenti di intelligenza artificiale in grado di generare volti, voci e situazioni verosimili ha dato inizio a un’epoca in cui la distinzione tra documentazione e simulazione diventa sempre più labile.

I deepfake, un tempo limitati a esperimenti sporadici, sono ora entrati nel flusso quotidiano di informazione e intrattenimento, sollevando interrogativi sul valore probatorio delle immagini e sul rapporto di fiducia tra chi pubblica e chi osserva.

È in questo contesto che si colloca l’analisi di Adam Mosseri, responsabile di Instagram, che, guardando al 2026, prevede un’ulteriore accelerazione di questo fenomeno: l’autenticità, afferma, sta diventando “infinitamente riproducibile” a causa di deepfake sempre più convincenti e di immagini e video creati dall’intelligenza artificiale sempre meno distinguibili da quelli reali.

Dalla fiducia allo scetticismo

“Stiamo già osservando un’elevata presenza di contenuti generati dall’IA – spiega Mosseri – e nel giro di pochi anni supereranno per quantità quelli creati con metodi tradizionali.

Si parla frequentemente di “AI slop”, ma accanto a questi esiste anche una notevole quantità di contenuti di alta qualità, privi di elementi disturbanti come arti deformi o fisiche implausibili.

Anche i contenuti migliori, tuttavia, conservano ancora un tratto identificabile: trasmettono una sensazione di artificialità. Le immagini sembrano eccessivamente levigate, la pelle troppo uniforme. È una caratteristica destinata a cambiare, poiché l’IA inizierà a produrre contenuti sempre più verosimili.”

Per questo, aggiunge Mosseri, l’autenticità sui social diventerà sempre più rara: “Col passare del tempo passeremo dall’assumere che ciò che vediamo sia reale a un atteggiamento di maggiore scetticismo nei confronti dei contenuti visivi, prestando maggiore attenzione a chi li condivide e alle motivazioni sottostanti. Sarà un cambiamento difficile per molti, poiché siamo naturalmente inclini a fidarci di ciò che i nostri occhi percepiscono.”

Visualizza questo post su Instagram

Un post condiviso da Adam Mosseri (@mosseri)

“Sarà più pratico certificare il reale che inseguire il falso”

Mosseri prevede un aumento delle pressioni sulle piattaforme affinché identificano e segnalino i contenuti generati dall’IA, con una difficoltà destinata a crescere man mano che i modelli migliorano.

<ppertanto, propone di affrontare il problema alla radice: “sarà più pratico autenticare i media reali piuttosto che contrassegnare quelli falsi”, afferma, suggerendo produttori fotocamere possano firmare le immagini al momento della cattura.

La proposta di Mosseri si colloca in una discussione più ampia già avviata da aziende e istituzioni: nel 2024 Meta aveva annunciato l’intenzione di etichettare le immagini generate dall’IA su Facebook e Instagram, aderendo a uno sforzo di settore relativo a standard di metadati e watermarking.

Tuttavia, Mosseri sostiene che l’etichettatura da sola non è sufficiente: “È necessario anche rendere più visibili i segnali di credibilità legati a chi pubblica contenuti, così da permettere agli utenti di decidere a chi dare fiducia – spiega il capo di Instagram -. Allo stesso tempo, sarà fondamentale continuare a migliorare i criteri che premiano l’originalità, mentre la questione della trasparenza e del controllo degli algoritmi merita un’attenzione separata.”

Smascherare i deepfake è una fatica inutile. Conviene certificare la realtà1

Adam Mosseri, capo di Instagram 

Creator “più importanti”, perché l’autenticità diventa scarsa

Secondo Mosseri, la crescita di contenuti sintetici potrebbe avere un effetto controintuitivo: invece di ridurre l’importanza dei creator, potrebbe rafforzarla.

Quando l’intelligenza artificiale abbassa i costi di produzione, il valore si concentra sulla fiducia e su ciò che non è facilmente replicabile, come una voce distintiva e una connessione diretta con il pubblico.

Il tema, quindi, non è la nostalgia per un internet “più autentico”, ma la previsione di un mercato dell’attenzione in cui l’autenticità diventa una risorsa sempre più scarsa e, per questo, più preziosa.

Di conseguenza, secondo Mosseri, l’asticella si alza: non basta più essere in grado di creare contenuti, ma è fondamentale riuscire a realizzare qualcosa che possa essere attribuito esclusivamente a chi li crea.

La fine del feed patinato

Mosseri collega la questione dell’autenticità anche a come gli utenti utilizzano Instagram oggi.

Il feed curato, sostiene, sta perdendo rilevanza, mentre stanno guadagnando terreno contenuti più spontanei, spesso condivisi in privato, in particolare nei messaggi diretti.

In quel flusso di immagini sfocate, riprese imperfette e video della vita quotidiana scorge un segnale di realtà, che diventa più prezioso man mano che l’intelligenza artificiale rende la perfezione semplice e accessibile.

In questa luce, l’imperfezione diventa un segnale: quando tutto può essere raffinato, ciò che rimane grezzo comunica autenticità. È un concetto che contrasta con l’approccio prevalente dell’industria fotografica, da tempo focalizzata sul rendere le immagini sempre più pulite e professionali.

La spinta di Meta verso contenuti IA

Il ragionamento di Mosseri giunge in un momento in cui Meta sta accelerando sull’integrazione di strumenti generativi e sulla diffusione di contenuti prodotti dall’IA sulle proprie piattaforme.

In una call trimestrale del 2025, il CEO Mark Zuckerberg ha discusso dell’intenzione di aggiungere “un’altra enorme quantità di contenuti [sintetici, nda]” ai sistemi di raccomandazione potenziati dagli algoritmi, annunciando di fatto un’evoluzione dei feed che, passando dagli amici, è ora in fase di transizione verso una fase sempre più centrata su video e immagini generati dall’intelligenza artificiale.

La stessa Meta ha recentemente avviato esperimenti come “Vibes”, un flusso di video generati dall’intelligenza artificiale all’interno dell’app Meta AI, presentato come un nuovo formato creativo e, secondo quanto comunicato dall’azienda, già associato a elevati volumi di produzione.

In sintesi, mentre la leadership di Instagram mette in guardia sui rischi legati alla diffusione di deepfake, la strategia complessiva di Meta – che oltre a Instagram controlla anche Facebook e WhatsApp – sembra orientata ad ampliare l’offerta di contenuti sintetici e strumenti basati sull’IA generativa.

Una spinta che, in effetti, facilita la diffusione di video e immagini di bassa qualità, spesso etichettati come “AI slop”, un termine usato per descrivere quella produzione seriale pensata principalmente per accumulare visualizzazioni piuttosto che valore informativo o creativo.

“AI slop”: i numeri che sottolineano l’allerta

Il fenomeno trascende i confini di Instagram e Meta.

Una recente analisi di Kapwing, una piattaforma online per l’editing e la creazione di contenuti video, audio e immagini, ha stimato che oltre il 20% dei video raccomandati a un nuovo utente su YouTube rientrerebbe nella categoria “AI slop”. Nel test su un account appena creato, 104 dei primi 500 video consigliati risultavano “slop”, mentre un terzo veniva classificato come “brainrot”, un insieme più ampio di contenuti progettati per monetizzare attenzione.

Lo stesso studio ha identificato su YouTube 278 canali composti esclusivamente da “AI slop”, per un totale di oltre 63 miliardi di visualizzazioni e 221 milioni di iscritti, con una stima di ricavi annui nell’ordine di 117 milioni di dollari.

Considerando questi dati, la posizione di Mosseri appare più concreta: se i contenuti generati dall’IA crescono più velocemente dei sistemi pensati per controllarli, l’attenzione si sposta sull’origine dei materiali, sulla trasparenza degli account e su verifiche effettuate il prima possibile, fino all’ipotesi di certificare i contenuti reali al momento della loro creazione.

Rimangono aperte le domande su chi stabilisca questi standard, come vengano applicati e quali effetti possano avere, in termini di privacy e di concentrazione del potere nelle mani delle piattaforme.

Lascia una risposta

L'indirizzo email non verrà pubblicato.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More