I dispositivi di intelligenza artificiale possono alimentare la confusione legata alla disinformazione.
Leggi in app
A sinistra le immagini reali, a destra le stesse immagini modificate
Gli strumenti per il rilevamento dell’intelligenza artificiale sono frequentemente al centro di dibattiti. Questi promettono di identificare testi e immagini generati da un’intelligenza artificiale con un certo livello di precisione, espresso in percentuale. Gli utenti possono copiare un documento sulle piattaforme di questi servizi o caricare fotografie, e dopo aver premuto “invio” ricevono un “verdetto”: il contenuto è “umano” o “AI”.
Il problema risiede nel fatto che, tecnicamente, non esistono strumenti in grado di identificare con certezza assoluta le tracce dell’intelligenza artificiale.
Questo malinteso – la convinzione che tali strumenti possano farlo – genera problemi talvolta più gravi dei deepfake stessi.
NewsGuard, un’azienda statunitense specializzata nel monitoraggio dell’affidabilità delle fonti online e della disinformazione, ha esaminato cinque dei principali strumenti utilizzati online per “verificare” immagini potenzialmente create da un’intelligenza artificiale. L’indagine evidenzia una vulnerabilità preoccupante: tre dei cinque strumenti analizzati hanno erroneamente classificato come generate dall’intelligenza artificiale immagini che in realtà erano autentiche. In totale, le immagini reali sono state giudicate artificiali nel 13,33% dei casi.
Il dato più elevato riguarda ScamAI, che ha identificato come generate dall’IA sei immagini autentiche su 15, corrispondenti al 40%. ZeroGPT ha commesso tre errori su 15, con un tasso del 20%. AI or Not ha fatto un solo errore, pari al 6,67%. Hive e Sightengine hanno invece riconosciuto correttamente tutte le 15 immagini reali sottoposte al test.
Le conseguenze di questi errori possono essere devastanti. In contesti informativi già polarizzati, un falso positivo può essere utilizzato come prova apparente per affermare che una fotografia autentica sia falsa, alimentando la sfiducia nei confronti dei media digitali.
Guerra, immagini e disinformazione
Il test condotto da NewsGuard si è focalizzato su 15 fotografie autentiche relative al conflitto tra Stati Uniti e Iran, pubblicate da fonti ritenute affidabili. Le immagini sono state analizzate da cinque strumenti: Hive, AI or Not, ZeroGPT, Sightengine e ScamAI. Tutti affermano di essere in grado di distinguere tra immagini autentiche e contenuti generati dall’intelligenza artificiale.
Secondo NewsGuard, il conflitto ha generato una notevole diffusione di contenuti visivi sospetti sui social network: immagini false di bombardamenti, città distrutte e presunti simulacri di decessi. In questo contesto, gli strumenti di rilevamento sono stati utilizzati anche per delegittimare contenuti autentici.
Uno degli esempi menzionati riguarda un video reale del primo ministro israeliano Benjamin Netanyahu in un caffè, pubblicato online per smentire le voci riguardanti la sua morte o gravi ferite in seguito a un attacco missilistico iraniano.
Alcuni utenti hanno condiviso il filmato insieme al risultato di un’analisi di Hive, secondo cui il video sarebbe stato “generato dall’IA” con una probabilità del 96,9%. Utenti anti-israeliani e filo-iraniani hanno utilizzato quel dato per affermare che Netanyahu fosse deceduto.
NewsGuard riporta che il confronto con altre immagini e video girati nello stesso luogo ha confermato l’autenticità del filmato. Secondo il report, Hive potrebbe essere stato ingannato da un filtro o da una leggera modifica del filmato che aveva sfocato lo sfondo. L’azienda non ha risposto a due richieste di commento.
Il caso evidenzia come la verifica automatica possa diventare parte della contesa informativa. Un risultato espresso in percentuale tende a comunicare certezza, anche quando lo strumento misura solo una probabilità tecnica. Per il pubblico, la distinzione tra “probabile manipolazione” e “prova di falso” può risultare difficile da percepire, specialmente in contesti di guerra.
I problemi degli strumenti che promettono di riconoscere i deepfake
Il co-fondatore di ScamAI, Dennis Ng, ha dichiarato a NewsGuard che i falsi positivi possono verificarsi. Secondo Ng, uno dei motivi è che gli strumenti di rilevamento richiedono generalmente immagini ad alta risoluzione e con un elevato livello di dettaglio nei pixel per identificare correttamente un contenuto reale. “Possiamo certamente adattare e perfezionare i nostri modelli in base a casi d’uso specifici per contribuire a ridurre questi episodi”, ha affermato. Il sito di ScamAI indica che “l’accuratezza varia in base al tipo di contenuto e alla tecnica di attacco” e afferma una “accuratezza di rilevamento del 95,3%”.
Il CEO di ZeroGPT, Rawad Baroud, ha spiegato a NewsGuard che tecniche come ridimensionamento e compressione possono portare a classificare erroneamente contenuti reali come generati dall’IA. Baroud ha aggiunto che immagini con caratteristiche visive simili a quelle sintetiche, come illuminazione insolita, forte contrasto e sfocatura, possono produrre risultati imprecisi. “Le immagini giornalistiche provenienti da zone di conflitto presentano spesso molte di queste caratteristiche”, ha dichiarato.
Anche il CEO di AI or Not, Anatoly Kvitnitsky, ha indicato la qualità dell’immagine come possibile fattore di errore, affermando che “nel caso di un falso positivo, la bassa qualità dell’immagine può talvolta influenzare il risultato dell’analisi”. Sul proprio sito, AI or Not dichiara un’“accuratezza di rilevamento dell’IA del 98,9%”, basata sulla valutazione di un dataset accademico pubblico contenente immagini reali e generate artificialmente.
Le percentuali di accuratezza dichiarate dalle aziende devono essere interpretate con cautela. La performance di un modello dipende dal tipo di immagini testate, dalla qualità dei file e dal livello di manipolazione.
Un risultato elevato su un dataset controllato può ridursi notevolmente di fronte a immagini giornalistiche compresse, rilanciate sui social o acquisite in condizioni difficili.
Le manipolazioni che sfuggono ai rilevatori di IA
NewsGuard ha effettuato anche uno stress test. Le 15 immagini autentiche sono state modificate in due modi: con ritocchi leggeri, come miglioramento dell’illuminazione e sfocatura di elementi di sfondo, e con manipolazioni più sostanziali, progettate per alterarne il significato. In quest’ultima categoria rientravano modifiche come l’aggiunta di fumo, la trasformazione di bandiere o la modifica di scritte su mezzi militari.
I risultati mostrano differenze significative. Sightengine ha riconosciuto correttamente solo cinque delle 15 immagini fortemente alterate, con un tasso del 33%. Hive ne ha identificate nove, corrispondenti al 73,33%. ScamAI ne ha riconosciute 12, con l’80%. ZeroGPT ha raggiunto 14, pari al 93,33%. AI or Not ha rilevato correttamente tutte le immagini significativamente manipolate.
Nel caso dei ritocchi leggeri, ScamAI ha classificato come generate dall’IA il 93% delle immagini, AI or Not l’87% e ZeroGPT l’80%. Hive e Sightengine hanno segnalato come generate artificialmente solo il 27% delle immagini lievemente modificate.
Dennis Ng, di ScamAI, ha spiegato che il modello dell’azienda classifica come manipolata dall’IA anche un’immagine reale alla quale sia stato applicato un filtro generativo. “Se il nostro modello rileva qualche tipo di filtro [IA] applicato a un’immagine reale, la classificheremo comunque come immagine manipolata dall’IA”, ha dichiarato.
La distinzione tra immagine generata, immagine ritoccata e immagine manipolata è ormai cruciale. Una fotografia reale con sfondo sfocato attraverso uno strumento di IA conserva un nucleo documentale diverso da un’immagine creata da zero o da una fotografia alterata per cambiare il significato dell’evento. Senza categorie chiare, il rischio è trattare interventi molto diversi come se fossero equivalenti.
Il ruolo ancora necessario della verifica umana
I risultati dell’indagine di NewsGuard indicano che i rilevatori automatici possono rivelarsi utili come segnali preliminari, a patto che siano inseriti in un processo più ampio.
Lo stesso Rawad Baroud, CEO di ZeroGPT, ha esortato giornalisti, ricercatori e fact-checker a combinare i risultati dei modelli con la verifica delle fonti, la ricerca inversa delle immagini, l’analisi dei metadati, la cronologia di pubblicazione e il contesto giornalistico prima di trarre conclusioni.
È evidente che i rilevatori di IA non possono sostituire la verifica umana.
In scenari di conflitto, dove immagini e video diventano prove politiche oltre che documenti informativi, l’autenticità deve essere stabilita attraverso una combinazione di analisi tecnica, confronto con fonti indipendenti e ricostruzione del contesto.
L’intelligenza artificiale può supportare questa verifica, a condizione che il suo risultato venga considerato come un indizio e non come una sentenza.
I commenti sono chiusi.