Immagine degli agenti aggrediti realizzata da un’IA. La Polizia: “Acquisita online, non è stata creata da noi”

Immagine degli agenti aggrediti realizzata da un'IA. La Polizia: “Acquisita online, non è stata creata da noi” 1

Illustrazione generata con Google Gemini 

La fotografia è ancora presente sull’account ufficiale della Polizia di Stato.

Pubblicata il 1 febbraio scorso su X, il social network gestito da Elon Musk, per manifestare la propria solidarietà ad Alessandro Calista e Lorenzo Virgulti, e “a tutti i feriti e ai poliziotti coinvolti nel servizio di ordine pubblico a Torino”, nel giorno – il 31 gennaio – in cui la città ha visto scontri tra le forze dell’ordine e manifestanti a sostegno del centro sociale Asakatasuna.

Tuttavia, quello “scatto”, che mostra Virgulti mentre protegge Calista, appena scampato all’aggressione di un gruppo di manifestanti, è falso.

Facebook e Instagram, a seguito di una “verifica da parte di fact-checker indipendenti”, hanno rimosso l’immagine dalle rispettive piattaforme. “Foto alterata”, si legge ora nel post della Polizia sui siti controllati da Meta.

Non si tratta di un’ qualsiasi: quella che ritrae gli agenti Calista e Virgulti è uno degli scatti emblematici degli scontri avvenuti sabato scorso a Torino.

Non è completamente inventata, poiché enfatizza in modo più chiaro una scena reale avvenuta, quando il poliziotto aggredito è stato soccorso dal collega. Ma se dobbiamo interpretare quell’immagine come un fatto, non possiamo che definirla un fake. Un momento autentico ma alterato, e non da uno di quei filtri che utilizziamo quotidianamente sui social, che rendono le foto più luminose o correggono gli occhi rossi.

No, qui è intervenuta l’intelligenza artificiale generativa, modificando dettagli e aggiungendone altri. Questo è evidente se si confronta l’immagine condivisa dalla Polizia con il video amatoriale pubblicato da Torino Oggi, e successivamente ripreso dalle principali testate, nelle ore successive agli scontri.

Sono numerose le differenze che fanno pensare a un utilizzo dell’intelligenza artificiale generativa, e non a un “semplice” ritocco tramite software come Photoshop.

I dettagli alterati

Sul casco di Virgulti, ad esempio, si notano lettere incomprensibili, là dove dovrebbe apparire la scritta “Polizia”.

Nello scatto modificato, inoltre, Virgulti non ha più lo scudo e il manganello, che nella realtà invece impugna. Nell’immagine creata dall’IA, si vede in modo più chiaro il volto dello stesso Virgulti, che nei filmati amatoriali appariva coperto, quasi “invisibile”.

Un altro aspetto che non torna: il muretto alle loro spalle, sotto la ringhiera che costeggia il marciapiede, è scomparso. I rifiuti a terra, poi, presentano dimensioni e forme leggermente diverse.

Anche la composizione del terreno è un indizio: nella foto generata con l’IA, il marciapiede sulla sinistra diventa selciato.

Immagine degli agenti aggrediti realizzata da un'IA. La Polizia: “Acquisita online, non è stata creata da noi” 2

Il frame del video amatoriale che è stato replicato e migliorato dall’IA 

Chi ha generato l’immagine?

L’autore dello scatto “generato” non è attualmente conosciuto.

Ciò che sappiamo è che la foto circolava già sui social prima che le forze dell’ordine la diffondessero. Fonti della Polizia stessa confermano: “Lo scatto era virale sui social e l’abbiamo utilizzato – ci è stato detto -. Ma non siamo stati noi a generare, né alterare, l’immagine”.

L’errore comunicativo, quindi, è stato quello di condividere l’immagine senza un’adeguata verifica. E, successivamente, di consegnarla all’agenzia di stampa , che l’ha diffusa come “reale”, altro passaggio confermato.

Identificare a prima vista le tracce dell’IA non era affatto semplice. L’ambientazione era la stessa, la posizione degli agenti identica. L’onda emotiva dopo l’accaduto, travolgente.

Per notare la differenza serve un occhio esperto, qualcuno che si soffermi sui dettagli. Questo suggerisce quanto siano diventati sofisticati i modelli di generazione delle immagini. E quanto le loro capacità possano minare sia l’informazione sia la comprensione e l’interpretazione della realtà.

Stando ai commenti sui social riguardo al fact-checking sulla foto in questione effettuato da testate come Facta e Open, per molti utenti la foto degli agenti alterata non rappresenta un problema. Non è grave, affermano, si tratta solo di un miglioramento della realtà. In fondo, sostengono, quel momento è realmente esistito. Inoltre, affermano altri, le foto vengono regolarmente modificate sin dall’invenzione della fotografia. In linea teorica, affermano ancora altri, qualsiasi scatto può essere considerato mediato dalla tecnologia e non conforme al 100% alla verità.

Il fenomeno della realtà ottimizzata

In effetti, l’ascesa dell’intelligenza artificiale ci pone di fronte a un nuovo fenomeno: quello che potremmo definire della “realtà aggiustata” o “ottimizzata”.

Possiamo spiegarlo con un esempio.

Oggi gli smartphone di alta gamma offrono zoom digitali che raggiungono – e addirittura superano – ingrandimenti di 100x. Il fatto che producano immagini di buona qualità, nonostante la notevole distanza a cui si trovano soggetti e oggetti, non dipende dalla qualità delle lenti e dei sensori del comparto fotografico, bensì dal software IA.

L’intelligenza artificiale, quindi, interviene dopo lo scatto per “aggiustare” ciò che il teleobiettivo non è riuscito a catturare in modo chiaro. Il sistema analizza un’immagine fortemente degradata, la interpreta e cerca di ricostruirla sulla base di miliardi di immagini che ha studiato in precedenza, fondendo dati reali e pixel sintetici.

Il risultato finale resta, in ogni caso, una scommessa tra ciò che era davanti all’obiettivo e ciò che l’algoritmo ha deciso di “immaginare”.

La stessa cosa avviene, in pratica, quando qualcuno offre a un’IA un frame sfocato di una scena – come quella in cui sono stati coinvolti i due agenti della Polizia a Torino – e richiede che venga ricostruita in modo il più possibile fedele.

L’IA è ormai capace di fare questo e altro, anche trasformare lo stile della foto stessa, restituendo un’illustrazione fedele all’originale (come ha fatto Gemini quando gli abbiamo chiesto di generare un disegno dello scatto fake, che accompagna questo articolo).

I rischi per l’informazione e l’interpretazione della realtà

Questa operazione produce, di fatto, un falso. E può essere molto complesso stabilirlo, come ci hanno insegnato le recenti immagini fake che hanno cercato di collegare a Mamdani, l’attuale sindaco di New York.

Nel caso dei due poliziotti di Torino, l’alterazione è invece evidente poiché l’IA che genera immagini, così come quella che si occupa dei testi, è ancora – e sottolineiamo ancora – soggetta a allucinazioni: produce immagini coerenti che però includono errori più o meno visibili, spesso scritte deformate (un tempo l’IA non era in grado di replicare le mani, oggi ha fatto notevoli progressi).

I commenti sono chiusi.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More