Leggi in app
A sinistra le immagini reali, a destra le stesse immagini modificate
Gli strumenti per il riconoscimento dell’IA sono frequentemente al centro di dibattiti. Questi promettono di identificare testi e immagini creati da un’intelligenza artificiale con un certo grado di precisione, espresso in percentuale. Gli utenti possono copiare un documento sui siti web di questi servizi o caricare fotografie, e dopo aver premuto “invio” ricevono un “verdetto”: il contenuto è “umano” o “AI”.
Il problema è che, a livello tecnico, non esistono strumenti in grado di identificare con assoluta certezza le tracce dell’IA.
Questo fraintendimento – la convinzione che tali strumenti possano farlo – genera problemi talvolta più gravi dei deepfake stessi.
NewsGuard, azienda statunitense specializzata nel monitoraggio dell’affidabilità delle fonti online e della disinformazione, ha esaminato cinque dei principali strumenti utilizzati online per “verificare” immagini potenzialmente create da un’intelligenza artificiale. L’indagine evidenzia una vulnerabilità preoccupante: tre dei cinque strumenti analizzati hanno erroneamente classificato come generate dall’intelligenza artificiale delle immagini che in realtà sono autentiche. In totale, le immagini genuine sono state giudicate artificiali nel 13,33% dei casi.
Il dato più elevato riguarda ScamAI, che ha identificato come generate dall’IA sei immagini autentiche su 15, corrispondenti al 40%. ZeroGPT ha commesso tre errori su 15, con un tasso del 20%. AI or Not ha fatto un solo errore, pari al 6,67%. Hive e Sightengine hanno invece riconosciuto correttamente tutte le 15 immagini reali sottoposte al test.
Le conseguenze di questi errori possono essere devastanti. In contesti informativi già polarizzati, un falso positivo può essere utilizzato come prova apparente per affermare che una fotografia autentica sia falsa, alimentando la sfiducia nei confronti dei media digitali.
Guerra, immagini e disinformazione
Il test di NewsGuard si è focalizzato su 15 fotografie autentiche relative al conflitto tra Stati Uniti e Iran, pubblicate da fonti ritenute affidabili. Le immagini sono state analizzate da cinque strumenti: Hive, AI or Not, ZeroGPT, Sightengine e ScamAI. Tutti affermano di essere in grado di distinguere immagini autentiche da contenuti generati dall’intelligenza artificiale.
Secondo NewsGuard, il conflitto ha generato una notevole diffusione di contenuti visivi sospetti sui social network: immagini false di bombardamenti, città distrutte e presunti simulacri di decessi. In questo contesto, gli strumenti di rilevamento sono stati utilizzati anche per delegittimare contenuti autentici.
Uno degli esempi menzionati riguarda un video reale del primo ministro israeliano Benjamin Netanyahu in un caffè, pubblicato online per smentire le voci secondo cui fosse stato ucciso o gravemente ferito in un attacco missilistico iraniano.
Alcuni utenti hanno condiviso il filmato insieme al risultato di un’analisi di Hive, secondo cui il video sarebbe stato “generato dall’IA” con una probabilità del 96,9%. Utenti anti-israeliani e filo-iraniani hanno utilizzato quel dato per sostenere che Netanyahu fosse deceduto.
NewsGuard riporta che il confronto con altre immagini e video girati nello stesso luogo ha confermato l’autenticità del filmato. Hive, secondo il report, potrebbe essere stato indotto in errore da un filtro o da una leggera modifica del filmato che aveva sfocato lo sfondo. L’azienda non ha risposto a due richieste di commento.
Il caso dimostra come la verifica automatica possa diventare parte della contesa informativa. Un risultato espresso in percentuale tende a comunicare certezza, anche quando lo strumento misura solo una probabilità tecnica. Per il pubblico, la differenza tra “probabile manipolazione” e “prova di falso” può risultare difficile da percepire, specialmente in contesti di guerra.
I problemi degli strumenti che promettono di riconoscere i deepfake
Il co-fondatore di ScamAI, Dennis Ng, ha dichiarato a NewsGuard che i falsi positivi possono verificarsi. Secondo Ng, uno dei motivi è che gli strumenti di rilevamento richiedono generalmente immagini ad alta risoluzione e con un elevato livello di dettaglio nei pixel per identificare correttamente un contenuto reale. “Possiamo certamente adattare e perfezionare i nostri modelli in base a casi d’uso specifici per contribuire a ridurre questi episodi”, ha affermato. Il sito di ScamAI indica che “l’accuratezza varia in base al tipo di contenuto e alla tecnica di attacco” e afferma una “accuratezza di rilevamento del 95,3%”.
Il CEO di ZeroGPT, Rawad Baroud, ha spiegato a NewsGuard che tecniche come ridimensionamento e compressione possono portare a classificare erroneamente contenuti reali come generati dall’IA. Baroud ha aggiunto che immagini con caratteristiche visive simili a quelle sintetiche, tra cui illuminazione insolita, forte contrasto e sfocatura, possono produrre risultati imprecisi. “Le immagini giornalistiche provenienti da zone di conflitto presentano spesso molte di queste caratteristiche”, ha affermato.
Anche il CEO di AI or Not, Anatoly Kvitnitsky, ha indicato la qualità dell’immagine come possibile fattore di errore, affermando che “nel caso di un falso positivo, la bassa qualità dell’immagine può talvolta influenzare il risultato dell’analisi”. Sul proprio sito, AI or Not dichiara un’“accuratezza di rilevamento dell’IA del 98,9%”, basata sulla valutazione di un dataset accademico pubblico contenente immagini reali e generate artificialmente.
Le percentuali di accuratezza dichiarate dalle aziende devono essere interpretate con cautela. La performance di un modello dipende dal tipo di immagini testate, dalla qualità dei file e dal livello di manipolazione.
Un risultato elevato su un dataset controllato può ridursi in modo significativo di fronte a immagini giornalistiche compresse, rilanciate sui social o acquisite in condizioni difficili.
Le manipolazioni che sfuggono ai rilevatori di IA
NewsGuard ha condotto anche uno stress test. Le 15 immagini autentiche sono state modificate in due modi: con ritocchi leggeri, come miglioramento dell’illuminazione e sfocatura di elementi di sfondo, e con manipolazioni più sostanziali, pensate per alterarne il significato. In quest’ultima categoria rientravano modifiche come l’aggiunta di fumo, la trasformazione di bandiere o la modifica di scritte su mezzi militari.
I risultati mostrano differenze significative. Sightengine ha riconosciuto correttamente solo cinque delle 15 immagini fortemente alterate, con un tasso del 33%. Hive ne ha riconosciute nove, pari al 73,33%. ScamAI ne ha identificate 12, con l’80%. ZeroGPT è arrivato a 14, pari al 93,33%. AI or Not ha rilevato correttamente tutte le immagini significativamente manipolate.
Nel caso dei ritocchi lievi, ScamAI ha classificato come generate dall’IA il 93% delle immagini, AI or Not l’87% e ZeroGPT l’80%. Hive e Sightengine hanno segnalato come generate artificialmente solo il 27% delle immagini lievemente modificate.
Dennis Ng, di ScamAI, ha spiegato che il modello dell’azienda classifica come manipolata dall’IA anche un’immagine reale alla quale sia stato applicato un filtro generativo. “Se il nostro modello rileva qualche tipo di filtro [IA] applicato a un’immagine reale, la classificheremo comunque come immagine manipolata dall’IA”, ha dichiarato.
La distinzione tra immagine generata, immagine ritoccata e immagine manipolata è ormai cruciale. Una fotografia reale con sfondo sfocato attraverso uno strumento di IA conserva un nucleo documentale diverso da un’immagine creata da zero o da una fotografia alterata per cambiare il significato dell’evento. Senza categorie chiare, il rischio è trattare interventi molto diversi come se fossero equivalenti.
Il ruolo ancora necessario della verifica umana
I risultati dell’indagine NewsGuard indicano che i rilevatori automatici possono essere utili come segnali preliminari, purché inseriti in un processo più ampio.
Lo stesso Rawad Baroud, CEO di ZeroGPT, ha invitato giornalisti, ricercatori e fact-checker a combinare i risultati dei modelli con verifica delle fonti, ricerca inversa delle immagini, analisi dei metadati, cronologia di pubblicazione e contesto giornalistico prima di trarre conclusioni.
In sintesi, appare evidente che i rilevatori di IA non possono sostituire la verifica umana.
In scenari di conflitto, dove immagini e video diventano prove politiche oltre che documenti informativi, l’autenticità deve essere stabilita attraverso una combinazione di analisi tecnica, confronto con fonti indipendenti e ricostruzione del contesto.
L’intelligenza artificiale può supportare questa verifica, a condizione che il suo risultato venga trattato come un indizio e non come una sentenza.