Smascherare i deepfake è una fatica inutile. Conviene certificare la realtà
Illustrazione realizzata con Midjourney
Per anni, immagini e video hanno agito come scorciatoie cognitive: osservare equivaleva, nella maggior parte dei casi, a credere. Questa certezza si sta rapidamente deteriorando.
La proliferazione di strumenti di intelligenza artificiale in grado di generare volti, voci e situazioni realistiche ha avviato una fase in cui la linea di demarcazione tra documentazione e simulazione diventa sempre più sottile.
I deepfake, un tempo limitati a esperimenti marginali, sono entrati nel flusso quotidiano di informazioni e intrattenimento, sollevando interrogativi sul valore probatorio delle immagini e sul rapporto di fiducia tra chi pubblica e chi osserva.
In questo contesto si inserisce l’analisi di Adam Mosseri, leader di Instagram, che, guardando al 2026, prevede una nuova accelerazione di questo fenomeno: l’autenticità, afferma, sta diventando “infinitamente riproducibile” a causa di deepfake sempre più plausibili e di immagini e video generati dall’intelligenza artificiale sempre più indistinguibili da quelli reali.
Dal fiducia a scetticismo
“Stiamo già osservando un’abbondanza di contenuti generati dall’IA – spiega Mosseri – e nei prossimi anni supereranno in volume quelli realizzati tramite metodi tradizionali.
Si parla spesso di “AI slop”, ma accanto a questi esiste anche una considerevole quantità di contenuti di alta qualità, privi di elementi inquietanti come arti distorte o fisica inverosimile.
Tuttavia, anche i contenuti migliori mantengono ancora un tratto distintivo: trasmettono una sensazione di artificialità. Le immagini appaiono eccessivamente levigate, la pelle troppo uniforme. Questa caratteristica è destinata a evolversi, poiché l’IA inizierà a produrre contenuti sempre più realistici.”
Per questo, aggiunge Mosseri, l’autenticità sui social diventerà sempre più rara: “Col passare del tempo, passeremo dal dare per scontato che ciò che vediamo sia reale a un atteggiamento di maggiore scetticismo nei confronti dei contenuti visivi, prestando maggiore attenzione a chi li condivide e alle motivazioni potenzialmente nascoste. Sarà un cambiamento scomodo per molti, poiché siamo naturalmente inclini a fidarci di ciò che i nostri occhi ci mostrano.”
Visualizza questo post su Instagram
“Sarà più pratico certificare il reale che inseguire il falso”
Mosseri prevede un aumento delle pressioni sulle piattaforme affinché identificano e segnalino i contenuti generati dall’IA, con una difficoltà destinata a crescere man mano che i modelli si perfezionano.
<pe così propone di affrontare il problema alla radice: “sarà più pratico autenticare i media reali piuttosto che contrassegnare quelli falsi”, afferma, ipotizzando produttori fotocamere possano firmare gli scatti al momento della cattura.
La proposta di Mosseri si colloca in un dibattito più ampio già avviato da aziende e istituzioni: nel 2024 Meta aveva annunciato l’intenzione di etichettare le immagini generate dall’IA su Facebook e Instagram, partecipando a uno sforzo settoriale legato a standard di metadati e watermarking.
Tuttavia, Mosseri sostiene che l’etichettatura da sola non è sufficiente: “È necessario anche rendere più visibili i segnali di credibilità associati a chi pubblica contenuti, in modo che le persone possano decidere a chi accordare fiducia – spiega il capo di Instagram -. Allo stesso tempo, sarà fondamentale continuare a migliorare i criteri che premiano l’originalità, mentre la questione della trasparenza e del controllo degli algoritmi richiede una riflessione separata.”
Adam Mosseri, leader di Instagram
Creator “più importanti”, poiché l’autenticità diventa scarsa
Secondo Mosseri, la diffusione di contenuti sintetici potrebbe avere un effetto controintuitivo: anziché diminuire l’importanza dei creator, potrebbe rafforzarla.
Quando l’intelligenza artificiale riduce i costi di produzione, il valore si concentra sulla fiducia e su ciò che non è facilmente replicabile, come una voce riconoscibile e un rapporto diretto con il pubblico.
La questione, quindi, non è la nostalgia per un internet “più autentico”, ma la previsione di un mercato dell’attenzione in cui l’autenticità diventa una risorsa sempre più rara e, per questo, più preziosa.
<pdunque, secondo mosseri, l'asticella si alza: non basta più saper produrre contenuti, è necessario realizzare qualcosa che possa essere attribuito esclusivamente a chi li crea.
La scomparsa del feed patinato
Mosseri collega il tema dell’autenticità anche a come le persone utilizzano Instagram oggi.
Il feed curato, sostiene, conta sempre meno, mentre guadagnano terreno contenuti più spontanei, spesso condivisi in privato, soprattutto nei messaggi diretti.
In quel flusso di foto sfocate, riprese imperfette e video della vita quotidiana scorge un segnale di realtà, che diventa più prezioso man mano che l’intelligenza artificiale rende la perfezione semplice e comune.
In questa ottica, l’imperfezione diventa un simbolo: quando tutto può essere levigato, ciò che rimane grezzo comunica autenticità. È un’idea che si contrappone all’approccio dominante dell’industria fotografica, da tempo focalizzata sul rendere le immagini sempre più pulite e dall’aspetto professionale.
La spinta di Meta verso contenuti IA
Il ragionamento di Mosseri si colloca in un momento in cui Meta sta investendo notevolmente nell’integrazione di strumenti generativi e nella diffusione di contenuti prodotti dall’IA sulle proprie piattaforme.
In una call trimestrale del 2025, il CEO Mark Zuckerberg ha menzionato l’intenzione di aggiungere “un’altra enorme quantità di contenuti [sintetici, nda]” ai sistemi di raccomandazione potenziati dagli algoritmi, annunciando di fatto un’evoluzione dei feed che, da amici, è passata ai creator e ora si sta dirigendo verso una fase sempre più centrata su video e immagini generati dall’intelligenza artificiale.
Meta ha anche avviato recentemente esperimenti come “Vibes”, un flusso di video generati dall’intelligenza artificiale all’interno dell’app Meta AI, presentato come un nuovo formato creativo e, secondo quanto dichiarato dall’azienda, già associato a volumi di produzione molto elevati.
Insomma, mentre la leadership di Instagram mette in evidenza i rischi legati alla diffusione di deepfake, la strategia complessiva di Meta – che, oltre a Instagram, controlla Facebook e WhatsApp – è orientata ad ampliare l’offerta di contenuti sintetici e strumenti basati sull’IA generativa.
Una spinta che, di fatto, facilita la diffusione di video e immagini di bassa qualità, spesso etichettati come “AI slop”, utilizzata per descrivere quella produzione seriale concepita principalmente per accumulare visualizzazioni piuttosto che valore informativo o creativo.
“AI slop”: i numeri che evidenziano l’allerta
Il fenomeno oltrepassa i confini di Instagram e Meta.
Una recente analisi di Kapwing, una piattaforma online per l’editing e la creazione di contenuti video, audio e immagini, ha stimato che oltre il 20% dei video consigliati a un nuovo utente su YouTube rientrerebbe nella categoria “AI slop”. Nel test effettuato su un account appena creato, 104 dei primi 500 video consigliati sono risultati “slop”, mentre un terzo è stato classificato come “brainrot”, un insieme più ampio di contenuti creati per monetizzare l’attenzione.
Lo stesso studio ha identificato su YouTube 278 canali composti esclusivamente da “AI slop”, per un totale di oltre 63 miliardi di visualizzazioni e 221 milioni di iscritti, con una stima di ricavi annui di circa 117 milioni di dollari.
Considerando questi dati, la posizione di Mosseri appare più concreta: se i contenuti generati dall’IA aumentano più rapidamente rispetto ai sistemi pensati per controlarli, l’attenzione si sposta sull’origine dei materiali, sulla trasparenza degli account e su verifiche effettuate quanto prima, fino all’idea di certificare i contenuti reali al momento della loro creazione.
Restano aperte le domande su chi stabilisca questi standard, come vengano applicati e quali effetti possano avere, in termini di privacy e di concentrazione del potere nelle mani delle piattaforme.