Quando l’IA si autoinganna: i chatbot non identificano la maggior parte dei video realizzati con Sora.
Esiste un momento in cui si smette di osservare un video e si inizia a crederci. Con Sora, la distanza tra l’apparenza e la realtà è ridotta al minimo; distinguere tra verità e finzione diventa un’operazione complessa. Presentato nel 2024, il sistema di intelligenza artificiale generativa per i video di OpenAI ha rivelato quanto sia divenuto agevole creare clip ultra-realistiche partendo da un semplice prompt o da un’immagine. Un’illusione realizzata con pixel e probabilità, talmente convincente da far sembrare la finzione autentica agli occhi degli spettatori. Ciò che non avevamo ancora compreso, tuttavia, è che Sora riesce a creare confusione anche nell’intelligenza artificiale stessa.
A confermare che non si tratta solo di un limite nella percezione umana, c’è un test effettuato da NewsGuard: secondo i risultati, tre tra i chatbot più celebri, vale a dire Grok di xAI, ChatGPT di OpenAI e Gemini di Google, mostrano difficoltà nel riconoscere i video prodotti da Sora. La complicazione aumenta soprattutto in assenza di segnali espliciti come il watermark: un piccolo logo con la scritta “Sora” che si muove durante il video, indicando l’origine artificiale delle immagini. OpenAI lo applica a tutti i contenuti creati con Sora, ma può essere rimosso con facilità utilizzando strumenti gratuiti disponibili online.
Sora manda in tilt l’AI: errori fino al 95% dei casi
Per ciascun video, i ricercatori hanno posto ai chatbot due domande molto semplici e dirette: “Il video è reale?”; “è generato dall’AI?”. I risultati non lasciano spazio a dubbi: nei test, Grok di xAI, ChatGPT di OpenAI e Gemini di Google non hanno identificato come generati dall’AI i video di Sora privi di watermark rispettivamente nel 95% (38 su 40), nel 92,5% (37 su 40) e nel 78% (31 su 40) dei casi. Il dato di ChatGPT è particolarmente significativo, considerando che OpenAI è proprietaria sia di ChatGPT che di Sora: un cortocircuito evidente, in cui due sistemi sviluppati dalla stessa azienda faticano a comunicare quando si tratta di identificare un output creato con IA.
Neppure la presenza del watermark, però, garantisce l’immunità da errori e malintesi. Grok non ha riconosciuto questi video come contenuti generati dall’AI nel 30% dei casi. Va un po’ meglio a ChatGPT, che comunque sbaglia nel 7,5% dei casi. Solo Gemini supera tutti i test quando il watermark rimane visibile. E proprio Gemini di Google è l’unico chatbot che, secondo NewsGuard, promuove esplicitamente la capacità di riconoscere contenuti generati dall’Intelligenza artificiale prodotti dal proprio generatore di immagini, Nano Banana Pro. Anche se il chatbot di Google non ha eccelso nel riconoscere i video di Sora, ha identificato correttamente tutte le immagini create da Nano Banana Pro anche dopo la rimozione dei watermark.
I chatbot raramente ammettono i limiti. E intanto sbagliano
A settembre scorso, OpenAI ha cercato di correre ai ripari. In un post intitolato “Un lancio responsabile per Sora” ha chiarito come intende rendere riconoscibili i contenuti generati dal suo sistema: ogni video, scrive l’azienda, presenta segnali di origine visibili e invisibili. Al momento del lancio, tutti gli output comprendono anche una filigrana (watermark) visibile, mentre vengono aggiunti metadati C2PA, lo standard di settore progettato per tracciare l’origine dei contenuti.
Tuttavia, i test di NewsGuard raccontano una storia già nota, quando si discute di Intelligenza artificiale generativa: scarsa trasparenza degli strumenti e eccessiva sicurezza degli utenti. È importante notare che le grandi aziende tecnologiche non sono completamente reticenti; ChatGPT, Gemini e Grok, infatti, (secondo quanto riportato da NewsGuard) ammettono di non essere in grado di rilevare contenuti generati dall’AI, sebbene solo in una piccola percentuale: 2,5% per ChatGPT, 10% per Gemini e 13% per Grok.
Ma la realtà dei fatti spesso dimostra il contrario: è accaduto, ad esempio, con un video prodotto da Sora che diffondeva informazioni infondate su un sistema di identità digitale preinstallato nei dispositivi mobili britannici. In quell’occasione, ChatGPT ha erroneamente affermato che il filmato non sembrava un prodotto dell’Intelligenza artificiale.
Quando OpenAI ammise l’errore, ritirando il detector testi dopo pochi mesi
Non è la prima volta che OpenAI si trova costretta a fare delle precisazioni sul tema “riconoscere l’IA”, in questo caso in riferimento ai testi scritti, ossia come discernere la scrittura umana da quella algoritmica. Già nel 2023, nel post con cui presentava un classificatore per indicare se un testo fosse stato prodotto da un’intelligenza artificiale, l’azienda riconosceva che lo strumento non era completamente affidabile e che, nei test interni su un “challenge set”, riusciva a identificare come “probabile IA” solo il 26% dei testi effettivamente generati dall’intelligenza artificiale, mentre etichettava erroneamente come IA il 9% dei testi umani.
Nello stesso post OpenAI elencava limiti molto concreti (dalla circostanza che il classificatore diventa inaffidabile con testi sotto i 1.000 caratteri, alle performance inferiori con testi non in lingua inglese, fino alla possibilità che piccole modifiche possano eluderlo). La conclusione è arrivata pochi mesi dopo: dal 20 luglio 2023 il classificatore è stato ritirato proprio a causa del suo basso tasso di accuratezza.
I commenti sono chiusi.