Immagine degli agenti aggrediti realizzata da un’IA. La Polizia: “Acquisita online, non è stata creata da noi”
Illustrazione generata con Google Gemini
La fotografia è ancora presente sull’account ufficiale della Polizia di Stato.
Pubblicata il 1 febbraio scorso su X, il social network gestito da Elon Musk, per manifestare la propria solidarietà ad Alessandro Calista e Lorenzo Virgulti, e “a tutti i feriti e ai poliziotti coinvolti nel servizio di ordine pubblico a Torino”, nel giorno – il 31 gennaio – in cui la città ha visto scontri tra le forze dell’ordine e manifestanti a sostegno del centro sociale Asakatasuna.
Tuttavia, quello “scatto”, che mostra Virgulti mentre protegge Calista, appena scampato all’aggressione di un gruppo di manifestanti, è falso.
Facebook e Instagram, a seguito di una “verifica da parte di fact-checker indipendenti”, hanno rimosso l’immagine dalle rispettive piattaforme. “Foto alterata”, si legge ora nel post della Polizia sui siti controllati da Meta.
Il #CapodellaPolizia Pisani ha voluto esprimere, con una lettera, la propria vicinanza ad Alessandro e Lorenzo, a tutti i feriti e ai poliziotti impiegati nel servizio di ordine pubblico ieri a Torino.
Per leggere il testo clicca sul link https://t.co/bruBs5n2UY #1febbraio pic.twitter.com/HEwi34FT8i— Polizia di Stato (@poliziadistato) February 1, 2026
Non si tratta di un’immagine qualsiasi: quella che ritrae gli agenti Calista e Virgulti è uno degli scatti emblematici degli scontri avvenuti sabato scorso a Torino.
Non è completamente inventata, poiché enfatizza in modo più chiaro una scena reale avvenuta, quando il poliziotto aggredito è stato soccorso dal collega. Ma se dobbiamo interpretare quell’immagine come un fatto, non possiamo che definirla un fake. Un momento autentico ma alterato, e non da uno di quei filtri che utilizziamo quotidianamente sui social, che rendono le foto più luminose o correggono gli occhi rossi.
No, qui è intervenuta l’intelligenza artificiale generativa, modificando dettagli e aggiungendone altri. Questo è evidente se si confronta l’immagine condivisa dalla Polizia con il video amatoriale pubblicato da Torino Oggi, e successivamente ripreso dalle principali testate, nelle ore successive agli scontri.
“Le immagini del vigliacco e infame pestaggio di un poliziotto da parte di questi squadristi rossi conferma l’urgenza di ricorrere a nuovi e più forti strumenti per sconfiggere i violenti e i delinquenti che si nascondono dietro i movimenti ed il diritto di manifestare. La… pic.twitter.com/GQNf21rNak
— Il Viminale (@Viminale) January 31, 2026
Sono numerose le differenze che fanno pensare a un utilizzo dell’intelligenza artificiale generativa, e non a un “semplice” ritocco tramite software come Photoshop.
I dettagli alterati
Sul casco di Virgulti, ad esempio, si notano lettere incomprensibili, là dove dovrebbe apparire la scritta “Polizia”.
Nello scatto modificato, inoltre, Virgulti non ha più lo scudo e il manganello, che nella realtà invece impugna. Nell’immagine creata dall’IA, si vede in modo più chiaro il volto dello stesso Virgulti, che nei filmati amatoriali appariva coperto, quasi “invisibile”.
Un altro aspetto che non torna: il muretto alle loro spalle, sotto la ringhiera che costeggia il marciapiede, è scomparso. I rifiuti a terra, poi, presentano dimensioni e forme leggermente diverse.
Anche la composizione del terreno è un indizio: nella foto generata con l’IA, il marciapiede sulla sinistra diventa selciato.
Il frame del video amatoriale che è stato replicato e migliorato dall’IA
Chi ha generato l’immagine?
L’autore dello scatto “generato” non è attualmente conosciuto.
Ciò che sappiamo è che la foto circolava già sui social prima che le forze dell’ordine la diffondessero. Fonti della Polizia stessa confermano: “Lo scatto era virale sui social e l’abbiamo utilizzato – ci è stato detto -. Ma non siamo stati noi a generare, né alterare, l’immagine”.
L’errore comunicativo, quindi, è stato quello di condividere l’immagine senza un’adeguata verifica. E, successivamente, di consegnarla all’agenzia di stampa Ansa, che l’ha diffusa come “reale”, altro passaggio confermato.
Identificare a prima vista le tracce dell’IA non era affatto semplice. L’ambientazione era la stessa, la posizione degli agenti identica. L’onda emotiva dopo l’accaduto, travolgente.
Per notare la differenza serve un occhio esperto, qualcuno che si soffermi sui dettagli. Questo suggerisce quanto siano diventati sofisticati i modelli di generazione delle immagini. E quanto le loro capacità possano minare sia l’informazione sia la comprensione e l’interpretazione della realtà.
Stando ai commenti sui social riguardo al fact-checking sulla foto in questione effettuato da testate come Facta e Open, per molti utenti la foto degli agenti alterata non rappresenta un problema. Non è grave, affermano, si tratta solo di un miglioramento della realtà. In fondo, sostengono, quel momento è realmente esistito. Inoltre, affermano altri, le foto vengono regolarmente modificate sin dall’invenzione della fotografia. In linea teorica, affermano ancora altri, qualsiasi scatto può essere considerato mediato dalla tecnologia e non conforme al 100% alla verità.
Il fenomeno della realtà ottimizzata
In effetti, l’ascesa dell’intelligenza artificiale ci pone di fronte a un nuovo fenomeno: quello che potremmo definire della “realtà aggiustata” o “ottimizzata”.
Possiamo spiegarlo con un esempio.
Oggi gli smartphone di alta gamma offrono zoom digitali che raggiungono – e addirittura superano – ingrandimenti di 100x. Il fatto che producano immagini di buona qualità, nonostante la notevole distanza a cui si trovano soggetti e oggetti, non dipende dalla qualità delle lenti e dei sensori del comparto fotografico, bensì dal software IA.
L’intelligenza artificiale, quindi, interviene dopo lo scatto per “aggiustare” ciò che il teleobiettivo non è riuscito a catturare in modo chiaro. Il sistema analizza un’immagine fortemente degradata, la interpreta e cerca di ricostruirla sulla base di miliardi di immagini che ha studiato in precedenza, fondendo dati reali e pixel sintetici.
Il risultato finale resta, in ogni caso, una scommessa tra ciò che era davanti all’obiettivo e ciò che l’algoritmo ha deciso di “immaginare”.
La stessa cosa avviene, in pratica, quando qualcuno offre a un’IA un frame sfocato di una scena – come quella in cui sono stati coinvolti i due agenti della Polizia a Torino – e richiede che venga ricostruita in modo il più possibile fedele.
L’IA è ormai capace di fare questo e altro, anche trasformare lo stile della foto stessa, restituendo un’illustrazione fedele all’originale (come ha fatto Gemini quando gli abbiamo chiesto di generare un disegno dello scatto fake, che accompagna questo articolo).
I rischi per l’informazione e l’interpretazione della realtà
Questa operazione produce, di fatto, un falso. E può essere molto complesso stabilirlo, come ci hanno insegnato le recenti immagini fake che hanno cercato di collegare Jeffrey Epstein a Mamdani, l’attuale sindaco di New York.
Nel caso dei due poliziotti di Torino, l’alterazione è invece evidente poiché l’IA che genera immagini, così come quella che si occupa dei testi, è ancora – e sottolineiamo ancora – soggetta a allucinazioni: produce immagini coerenti che però includono errori più o meno visibili, spesso scritte deformate (un tempo l’IA non era in grado di replicare le mani, oggi ha fatto notevoli progressi).
I commenti sono chiusi.