Tafferugli a Torino, l’immagine degli agenti colpiti è generata da intelligenza artificiale. La Polizia: “Proviene da internet, non è nostra creazione.”
Illustrazione generata con Google Gemini
La fotografia è ancora disponibile sull’account ufficiale della Polizia di Stato.
Pubblicata il 1 febbraio scorso su X, il social network gestito da Elon Musk, per manifestare la propria solidarietà a Alessandro Calista e Lorenzo Virgulti, e “a tutti i feriti e ai poliziotti coinvolti nel servizio di ordine pubblico a Torino”, nel giorno – il 31 gennaio – in cui la città ha visto scontri tra le forze dell’ordine e manifestanti a sostegno del centro sociale Asakatasuna.
Tuttavia, quello “scatto”, che mostra Virgulti mentre protegge Calista, appena sfuggito all’aggressione di un gruppo di manifestanti, è falso.
Facebook e Instagram, a seguito di una “verifica da parte di fact-checker indipendenti”, hanno rimosso l’immagine dalle rispettive piattaforme. “Foto alterata”, si legge ora nel post della Polizia sui siti gestiti da Meta.
Il #CapodellaPolizia Pisani ha voluto esprimere, con una lettera, la propria vicinanza ad Alessandro e Lorenzo, a tutti i feriti e ai poliziotti impiegati nel servizio di ordine pubblico ieri a Torino.
Per leggere il testo clicca sul link https://t.co/bruBs5n2UY #1febbraio pic.twitter.com/HEwi34FT8i— Polizia di Stato (@poliziadistato) February 1, 2026
Non si tratta di un’immagine qualsiasi: quella che ritrae gli agenti Calista e Virgulti è uno degli scatti emblematici degli scontri avvenuti sabato scorso a Torino.
Non è completamente inventata, poiché enfatizza in modo più chiaro una scena reale avvenuta quando il poliziotto aggredito è stato soccorso dal collega. Tuttavia, se dobbiamo interpretare quell’immagine come un fatto, non possiamo che definirla un fake. Un momento autentico ma alterato, non da uno di quei filtri che utilizziamo quotidianamente sui social, che rendono le foto più luminose o correggono gli occhi rossi.
No, qui è intervenuta l’intelligenza artificiale generativa, modificando dettagli e aggiungendone altri. Questo è evidente se si confronta l’immagine condivisa dalla Polizia con il video amatoriale pubblicato da Torino Oggi, e successivamente ripreso dalle principali testate, nelle ore successive agli scontri.
“Le immagini del vigliacco e infame pestaggio di un poliziotto da parte di questi squadristi rossi conferma l’urgenza di ricorrere a nuovi e più forti strumenti per sconfiggere i violenti e i delinquenti che si nascondono dietro i movimenti ed il diritto di manifestare. La… pic.twitter.com/GQNf21rNak
— Il Viminale (@Viminale) January 31, 2026
Sono numerose le differenze che suggeriscono un utilizzo dell’intelligenza artificiale generativa, e non un “semplice” ritocco tramite programmi come Photoshop.
I dettagli alterati
Sul casco di Virgulti, per esempio, si notano lettere incomprensibili, là dove dovrebbe apparire la scritta “Polizia”.
Nello scatto modificato, inoltre, Virgulti non ha più lo scudo e il manganello, che nella realtà invece impugna. Nell’immagine creata dall’IA, vediamo anche in modo più chiaro il volto dello stesso Virgulti, che nei filmati amatoriali appariva coperto, quasi “invisibile”.
Un altro aspetto che non torna: il muretto alle loro spalle, sotto la ringhiera che costeggia il marciapiede, non è più presente. Scomparso. I rifiuti a terra, poi, hanno dimensioni e forme leggermente diverse.
Anche la composizione del terreno è un indizio: nella foto generata con l’IA il marciapiede a sinistra diventa selciato.
Il frame del video amatoriale che è stato replicato e migliorato dall’IA
Chi ha generato l’immagine?
L’autore dello scatto “generato” non è attualmente conosciuto.
Ciò che sappiamo è che la foto circolava già sui social prima che le forze dell’ordine la diffondessero. Lo confermano fonti della Polizia stessa, che abbiamo interpellato: “Lo scatto era virale sui social e l’abbiamo utilizzato – ci è stato detto -. Ma non siamo stati noi a generare, né a modificare, l’immagine”.
L’errore comunicativo, insomma, è stato condividere l’immagine senza un’adeguata verifica. E, successivamente, consegnarla all’agenzia di stampa Ansa, che l’ha diffusa come “reale”, altro passaggio che ci è stato confermato.
Identificare a prima vista le tracce dell’IA non era affatto semplice. L’ambientazione era la stessa, la posizione degli agenti identica. L’onda emotiva dopo l’accaduto, travolgente.
Per notare la differenza serve un occhio esperto, qualcuno che si fermi sui dettagli. Questo fa comprendere quanto siano diventati sofisticati i modelli di generazione delle immagini. E quanto le loro capacità possano minare sia l’informazione sia la capacità di comprendere e interpretare la realtà.
Stando ai commenti sui social riguardo al fact-checking sulla foto in questione effettuato da testate come Facta e Open, per molti utenti la foto degli agenti alterata non rappresenta un problema. Non è grave, affermano, si tratta solo di un miglioramento della realtà. In fondo, sostengono, quel momento è realmente esistito. Inoltre, affermano altri, le foto vengono regolarmente modificate sin dall’invenzione della fotografia. In linea teorica, affermano ancora altri, qualsiasi scatto può essere considerato mediato dalla tecnologia e non conforme al 100% alla verità.
Il fenomeno della realtà ottimizzata
In effetti, l’ascesa dell’intelligenza artificiale ci pone di fronte a un nuovo fenomeno: quello che potremmo definire della “realtà aggiustata” o “ottimizzata”.
Possiamo illustrarlo con un esempio.
Oggi gli smartphone di alta gamma offrono zoom digitali che raggiungono – e addirittura superano – ingrandimenti di 100x. Il fatto che producano immagini di buona qualità, nonostante la notevole distanza a cui si trovano soggetti e oggetti, non dipende dalla qualità delle lenti e dei sensori del comparto fotografico, bensì dal software IA.
L’intelligenza artificiale, quindi, interviene dopo lo scatto per “aggiustare” ciò che il teleobiettivo non è riuscito a catturare in modo chiaro. Il sistema analizza un’immagine fortemente degradata, la interpreta e cerca di ricostruirla sulla base di miliardi di immagini che ha studiato in precedenza, fondendo dati reali e pixel sintetici.
Il risultato finale resta, in ogni caso, una scommessa tra ciò che era davanti all’obiettivo e ciò che l’algoritmo ha deciso di “immaginare”.
La stessa cosa avviene, in pratica, quando qualcuno offre a un’IA un frame sfocato di una scena – come quella in cui sono stati coinvolti i due agenti della Polizia a Torino – e chiede che venga ricostruita in modo il più possibile fedele.
L’IA è ormai capace di fare questo e altro, anche trasformare lo stile della foto stessa, restituendo un’illustrazione aderente all’originale (come ha fatto Gemini quando gli abbiamo chiesto di generare un disegno dello scatto fake, che accompagna questo articolo).
I rischi per l’informazione e l’interpretazione della realtà
Questa operazione produce, di fatto, un falso. E può essere molto complesso stabilirlo, come ci hanno insegnato le recenti immagini fake che hanno cercato di collegare Jeffrey Epstein a Mamdani, l’attuale sindaco di New York.
Nel caso dei due poliziotti di Torino, l’alterazione è invece evidente poiché l’IA che genera immagini, così come quella che si occupa dei testi, è ancora – e sottolineiamo ancora – soggetta ad allucinazioni: produce immagini coerenti che però includono errori più o meno visibili, spesso scritte deformate (un tempo l’IA non sapeva replicare le mani, oggi è migliorata sensibilmente).
I commenti sono chiusi.