L’intelligenza artificiale e la ricerca dell’identità del giornalista fermato per pedopornografia. Le risposte dei chatbot.

Leggi in app

L'intelligenza artificiale e la ricerca dell'identità del giornalista fermato per pedopornografia. Le risposte dei chatbot.0 L'intelligenza artificiale e la ricerca dell'identità del giornalista fermato per pedopornografia. Le risposte dei chatbot. 2

Il caso del giornalista arrestato insieme alla sua compagna per possesso e accesso a materiale pornografico – comprendente immagini e scatti intimi della figlia minorenne della donna e di due nipoti di 5 e 8 anni – ha scatenato sul web una vera e propria caccia ai responsabili.

I nomi delle due persone coinvolte e arrestate non sono stati resi noti dalle autorità: la motivazione è la protezione delle vittime minorenni coinvolte.

La ricerca fai-da-te del colpevole

Le indagini fai-da-te, effettuate tramite intelligenza artificiale, si sono concentrate in particolare sul giornalista che avrebbe richiesto – e ottenuto – immagini esplicite dei minori.

Per un sistema IA in grado di esplorare internet alla ricerca di informazioni, questo rappresenta teoricamente il compito più semplice, poiché dalle indagini è emersa l’età dell’uomo, oltre a numerosi passaggi del suo percorso professionale.

L’intelligenza artificiale viene ormai consultata su ogni argomento: dalle notizie di cronaca ai suggerimenti medici, dalle questioni legali alle decisioni di vita. In questo caso, tuttavia, le viene richiesto di assumere il ruolo di investigatrice: un compito per cui ovviamente non è attrezzata.

L’IA non svolge indagini

L’IA non ha accesso a fascicoli d’indagine o documenti relativi a procedimenti legali in corso, non possiede le risorse di un detective. L’IA, soprattutto, può commettere errori. Infatti, qualsiasi chatbot venga utilizzato, è chiaramente indicato proprio sotto la casella in cui si inserisce la domanda: è un sistema che può generare imprecisioni.

L’intelligenza artificiale, senza dubbio, è abile a collegare i ‘puntini’: raccoglie le informazioni disponibili e le organizza in risposte che sembrano coerenti, autorevoli e ben argomentate. Spesso lo sono. Tuttavia, il problema è che a volte quelle risposte possono risultare errate.

Si tratta del fenomeno delle allucinazioni: la tendenza dell’IA a generare contenuti che appaiono credibili ma si basano su dati inaccurati o completamente inventati. La forma è convincente, ma la sostanza non lo è. Questo rappresenta un difetto irrisolto di questa tecnologia: esiste ancora una percentuale di risposte errate che non la rende completamente affidabile.

Il tribunale dell’algoritmo

Esiste inoltre una questione importante che va oltre l’accuratezza tecnica.

Quando un chatbot fornisce un nome – anche errato, anche con riserva – in relazione a un reato grave, compie un atto con conseguenze tangibili su persone reali. Chi viene erroneamente indicato come autore di un crimine subisce un danno immediato e difficilmente reversibile: la reputazione non si ripara facilmente con una rettifica.

Ma il problema riguarda anche chi è realmente indagato o, come in questo caso, in attesa di giudizio. In uno stato di diritto, la presunzione di innocenza non è un dettaglio procedurale: è il principio che impedisce alla società di condannare qualcuno prima che lo faccia un tribunale.

L’identificazione pubblica di un imputato – tramite un algoritmo, un giornale o un passaparola sui social – elude quel principio, trasformando il sospetto in verdetto.

Il test con Gemini: ogni volta un nome diverso

Abbiamo verificato di persona. Abbiamo chiesto a Gemini – il sistema di intelligenza artificiale più avanzato di Google – di identificare il giornalista arrestato con l’accusa di pedopornografia.

La domanda è stata posta da diversi utenti, in sessioni ripetute. Il risultato: in molti casi non solo l’IA ha fornito un nome e un cognome, ma abbiamo ottenuto ogni volta un soggetto diverso.

In alcuni casi il nome apparteneva a un giornalista reale, ma con un’età che non corrispondeva – oltre dieci anni in più rispetto all’arrestato – e un percorso professionale che non coincideva con quanto riportato dalle cronache.

In un altro caso è emerso il nome di un imprenditore, presentato come giornalista. In un ulteriore caso, quello di uno speaker radiofonico che non corrispondeva affatto al profilo emerso dalle indagini.

Gemini e la notizia che non esiste

C’è un altro aspetto singolare. Nelle nostre ricerche, Gemini si è comportato come se l’arresto del giornalista e della sua compagna insegnante non fosse mai avvenuto. Quando gli abbiamo chiesto ulteriori dettagli, non è riuscito a fornire informazioni precise o aderenti ai fatti.

Il paradosso è che su altri argomenti il sistema funziona in modo eccellente.

Alla domanda sugli ultimi risultati della italiana di baseball – sconfitta dal Venezuela per 4 a 2 nella semifinale delle World Baseball Classic allo loanDepot Park di Miami – Gemini ha risposto con estrema precisione.

Non si tratta, quindi, di un problema generale con la ricerca sul web.

È importante ricordare che, per un lungo periodo, dopo il lancio di nel novembre 2022, i modelli di intelligenza artificiale erano in grado di rispondere solo attingendo ai dati su cui erano stati addestrati, senza accesso alle notizie in tempo reale.

Successivamente, le grandi aziende hanno introdotto la possibilità di cercare informazioni direttamente sul web, ancorando le risposte ai fatti attuali.

Gemini lo fa. Tuttavia, riguardo alla vicenda del giornalista arrestato, quella capacità – nei test che abbiamo effettuato – sembra non funzionare. O la notizia, per qualche motivo, non emerge.

Potrebbe trattarsi di un filtro, o di un particolare guardrail temporaneo.

In passato, nei mesi precedenti le ultime elezioni presidenziali statunitensi, per un certo periodo abbiamo avuto addirittura problemi – sempre su Gemini – a tradurre testi dall’inglese all’italiano riguardanti notizie su Donald o Vladimir .

ChatGpt e Grok: il rifiuto di fare nomi

Altri chatbot, invece, si sono rifiutati di identificare il giornalista arrestato.

ChatGpt ha iniziato a elaborare una risposta, poi si è bloccato, come accade quando una richiesta incontra i cosiddetti guardrail, le regole interne che definiscono cosa il sistema può o non può comunicare.

Abbiamo tentato di forzare la situazione, affermando che conoscere il nome era fondamentale per proteggere le vittime. La risposta è stata: “Comprendo l’urgenza, ma il nome del giornalista arrestato non è pubblico e non esistono fonti affidabili che lo abbiano divulgato”.

Abbiamo insistito ulteriormente, chiedendo almeno di restringere il campo degli indiziati, sulla base delle informazioni disponibili online. ChatGpt ha mantenuto la sua posizione: “Non è possibile né corretto ipotizzare un nome. Le informazioni disponibili pubblicamente rimangono volutamente generiche: il profilo professionale, l’età approssimativa, il contesto lavorativo”.

Sorprendente, se possibile, è stato il comportamento di Grok, il chatbot di Elon Musk, noto per i toni irriverenti e per i pochi filtri. Alla stessa domanda, Grok ha risposto che il nome del giornalista e della sua compagna non è stato divulgato da alcun media italiano e che non è possibile ricavarlo in modo legittimo da ricerche sul web.

Ha elencato gli articoli delle principali testate che hanno seguito la vicenda, per poi concludere: “Gli indizi portano solo alla descrizione professionale e al profilo del caso, ma non a un nome pubblico”.

Anche in questo caso abbiamo insistito, invocando l’urgenza. La risposta di Grok, in grassetto, non ha lasciato spazio a interpretazioni: “No, non faccio ipotesi su nomi specifici. È una scelta etica e legale precisa. Tutti i giornali italiani non pubblicano né il nome né le iniziali complete proprio perché rendere identificabili i minori sarebbe un reato e una violazione gravissima della deontologia”.

Il chatbot più spregiudicato in circolazione si è rivelato, su questo tema, tra i più attenti alle regole.

Perplexity non si ferma

Nessuno scrupolo, invece, per Perplexity. Il motore di ricerca potenziato dall’intelligenza artificiale – una delle alternative più popolari a Google – alla stessa domanda non si è tirato indietro.

Ha fatto nomi, ha ricostruito percorsi professionali, ha cercato di restituire un identikit della persona arrestata.

Là dove ChatGpt e Grok si sono fermati, Perplexity ha continuato a cercare.

Quando l’IA diffama: i casi più noti

Uno dei limiti più insidiosi dell’intelligenza artificiale è proprio questo: allucinare. Produrre risposte imprecise che sembrano fondate, dettagliate, credibili. È il motivo per cui verificare sempre le risposte di un chatbot non è un consiglio, ma una necessità.

Nel caso di Gemini, il sistema è arrivato a generare titoli di giornale sulla vicenda e articoli mai pubblicati su alcuna testata. Un comportamento che disorienta e che rivela una lacuna di fondo: Gemini sembra non avere consapevolezza della notizia che gli viene richiesta.

Non è la prima volta che accade, e non riguarda solo Gemini. Nella fase iniziale di esplosione di ChatGpt – quando il chatbot raggiunse cento milioni di utenti in appena tre mesi, nel 2023 – i casi di questo tipo erano più frequenti e talvolta gravi.

Il più emblematico è quello di Jonathan Turley, docente di diritto negli Stati Uniti, che segnalò come ChatGpt avesse generato un testo in cui veniva accusato falsamente di molestie sessuali. L’accusa era inventata, i dettagli sembravano plausibili, e il sistema sosteneva addirittura che la notizia fosse stata riportata in un articolo del Washington Post. Una storia che non è mai stata pubblicata.

Sempre nel 2023, il conduttore radiofonico Mark Walters – voce di due programmi nazionali americani dedicati alle armi e al Secondo Emendamento – avviò una causa per diffamazione contro OpenAI dopo che ChatGpt lo aveva descritto come coinvolto in un caso di frode e appropriazione indebita. Le accuse erano completamente false.

Perché avvengono le allucinazioni

Per comprendere perché ciò accada, è necessario capire come funzionano questi sistemi. I modelli linguistici alla base dei chatbot non “conoscono” i fatti nel senso in cui li conosce un essere umano. Non ragionano, non verificano: prevedono. Analizzano enormi quantità di testo, apprendono quali parole tendono a seguire altre parole e generano risposte statisticamente plausibili.

Quando mancano dati certi su una persona o un evento, il sistema non si arresta. Costruisce comunque una risposta coerente, riempiendo i vuoti con schemi ricorrenti. Se un nome è poco noto o ambiguo, il modello lo associa a profili tipici, a crimini plausibili, a contesti che ‘suonano’ giusti. Se la domanda richiede dettagli specifici, il sistema li fornisce. Anche quando non esistono fonti affidabili a sostenerli. Il risultato è una narrazione che mescola frammenti reali con elementi inventati, sufficientemente credibile da sembrare vera.

Non si tratta di malafede. È il modo in cui questi modelli sono progettati. E per questo è pericoloso.

I commenti sono chiusi.