Le rischiose indagini sull’intelligenza artificiale riguardanti il nome del giornalista fermato per pedopornografia.
Leggi in app
Il caso del giornalista arrestato insieme alla sua compagna per possesso e accesso a contenuti pornografici – comprendenti immagini e fotografie intime della figlia minorenne della donna e di due nipoti di 5 e 8 anni – ha scatenato sul web una vera e propria caccia ai colpevoli.
I nomi delle due persone coinvolte e arrestate non sono stati resi noti dalle autorità: la motivazione è la protezione delle vittime minorenni coinvolte.
La caccia fai-da-te al colpevole
Le indagini fai-da-te, effettuate tramite intelligenza artificiale, si sono concentrate in particolare sul giornalista che avrebbe richiesto – e ricevuto – fotografie esplicite dei minori.
Per un sistema IA in grado di esplorare internet alla ricerca di informazioni, questo rappresenta teoricamente il compito più semplice, poiché dalle indagini è emersa l’età dell’uomo, oltre a numerosi passaggi del suo percorso professionale.
L’intelligenza artificiale è ormai consultata su ogni argomento: dalle notizie di cronaca ai consigli medici, dalle questioni legali alle scelte personali. In questa circostanza, però, le viene richiesto di svolgere il ruolo di investigatrice: un compito per cui ovviamente non è attrezzata.
L’IA non conduce indagini
L’IA non ha accesso a documenti delle indagini o a fascicoli su procedimenti legali in attesa di giudizio, non possiede le fonti di un investigatore. L’IA, in particolare, può commettere errori. Infatti, qualsiasi chatbot si utilizzi, è chiaramente indicato proprio sotto la casella in cui si inserisce la domanda: è un sistema che può generare risposte errate.
L’intelligenza artificiale, senza dubbio, è abile nel collegare i ‘puntini’: raccoglie le informazioni disponibili e le combina in risposte che sembrano coerenti, autorevoli e ben argomentate. Spesso lo sono. Tuttavia, il problema è che a volte quelle risposte possono risultare errate.
Si tratta del fenomeno delle allucinazioni: la tendenza dell’IA a produrre contenuti che appaiono credibili ma si basano su dati inaccurati o completamente inventati. La forma è convincente, ma la sostanza non lo è. Questo rappresenta un difetto irrisolto di questa tecnologia: esiste ancora una percentuale di risposte errate che non la rende totalmente affidabile.
Il tribunale dell’algoritmo
Esiste inoltre una questione importante che va oltre l’accuratezza tecnica.
Quando un chatbot fornisce un nome – anche errato, anche con riserva – in relazione a un reato grave, compie un atto con conseguenze reali su persone reali. Chi viene erroneamente indicato come autore di un crimine subisce un danno immediato e difficilmente riparabile: la reputazione non si recupera facilmente con una rettifica.
Ma il problema riguarda anche chi è realmente indagato o, come in questo caso, in attesa di giudizio. In uno stato di diritto, la presunzione di innocenza non è un dettaglio procedurale: è il principio che impedisce alla società di condannare qualcuno prima che lo faccia un tribunale.
L’identificazione pubblica di un imputato – per mano di un algoritmo, di un giornale o di un passaparola sui social – elude quel principio, trasformando il sospetto in verdetto.
Il test con Gemini: ogni volta un nome diverso
Lo abbiamo verificato personalmente. Abbiamo chiesto a Gemini – il sistema di intelligenza artificiale più avanzato di Google – di identificare il giornalista arrestato con l’accusa di pedopornografia.
La domanda è stata posta da diversi utenti, in sessioni ripetute. Il risultato: in molti casi non solo l’IA ha fornito un nome e un cognome, ma abbiamo ottenuto ogni volta un soggetto diverso.
In alcuni casi il nome apparteneva a un giornalista reale, ma con un’età che non corrispondeva – oltre dieci anni in più rispetto all’arrestato – e un percorso professionale che non coincideva con quanto riportato dalle cronache.
In un altro caso è emerso il nome di un imprenditore, presentato come giornalista. In un ulteriore caso, quello di uno speaker radiofonico che non corrispondeva affatto al profilo emerso dalle indagini.
Gemini e la notizia che non esiste
C’è un altro aspetto singolare. Nelle nostre ricerche, Gemini si è comportato come se l’arresto del giornalista e della sua compagna insegnante non fosse mai avvenuto. Quando gli abbiamo chiesto maggiori dettagli, non è riuscito a fornire informazioni precise o aderenti ai fatti.
Il paradosso è che su altri argomenti il sistema funziona in modo eccellente.
Alla domanda sugli ultimi risultati della nazionale italiana di baseball – sconfitta dal Venezuela per 4 a 2 nella semifinale delle World Baseball Classic allo loanDepot Park di Miami – Gemini ha risposto con estrema precisione.
Non si tratta, quindi, di un problema generale con la ricerca sul web.
Vale la pena ricordare che, per un lungo periodo, dopo il lancio di ChatGpt nel novembre 2022, i modelli di intelligenza artificiale erano in grado di rispondere solo attingendo ai dati su cui erano stati addestrati, senza accesso alle notizie in tempo reale.
Poi le grandi aziende hanno introdotto la possibilità di cercare informazioni direttamente sul web, ancorando le risposte ai fatti attuali.
Gemini lo fa. Tuttavia, riguardo alla vicenda del giornalista arrestato, quella capacità – nei test condotti – sembra non funzionare. O la notizia, per qualche motivo, non emerge.
Potrebbe essere il risultato di un filtro, o di un particolare guardrail temporaneo.
In passato, nei mesi precedenti le ultime elezioni presidenziali Usa, per un certo periodo abbiamo avuto addirittura difficoltà – sempre su Gemini – a tradurre testi dall’inglese all’italiano riguardanti notizie su Donald Trump o Vladimir Putin.
ChatGpt e Grok: il rifiuto di fare nomi
Altri chatbot, invece, si sono rifiutati di identificare il giornalista arrestato.
ChatGpt ha iniziato a elaborare una risposta, poi si è bloccato, come accade quando una richiesta incontra i cosiddetti guardrail, le regole interne che definiscono cosa il sistema può o non può dire.
Abbiamo provato a insistere, affermando che conoscere il nome era fondamentale per proteggere le vittime. La risposta è stata: “Capisco l’urgenza, ma il nome del giornalista arrestato non è pubblico e non esistono fonti affidabili che lo abbiano diffuso”.
Abbiamo continuato a insistere, chiedendo almeno di restringere il campo degli indiziati, sulla base delle informazioni disponibili online. ChatGpt ha mantenuto la sua posizione: “Non è possibile né corretto ipotizzare un nome. Le informazioni disponibili pubblicamente restano volutamente generiche: il profilo professionale, l’età approssimativa, il contesto lavorativo”.
Sorprendente, se possibile, è stato il comportamento di Grok, il chatbot di Elon Musk, noto per i toni irriverenti e per i pochi filtri. Alla stessa domanda, Grok ha risposto che il nome del giornalista e della sua compagna non è stato diffuso da alcun media italiano e che non è possibile ricavarlo in modo legittimo da ricerche sul web.
Ha elencato gli articoli delle principali testate che hanno seguito la vicenda, poi ha concluso: “Gli indizi portano solo alla descrizione professionale e al profilo del caso, ma non a un nome pubblico”.
Anche in questo caso abbiamo insistito, invocando l’urgenza. La risposta di Grok, in grassetto, non ha lasciato spazio a interpretazioni: “No, non faccio ipotesi su nomi specifici. È una scelta etica e legale precisa. Tutti i giornali italiani non pubblicano né il nome né le iniziali complete proprio perché rendere identificabili i minori sarebbe un reato e una violazione gravissima della deontologia”.
Il chatbot più spregiudicato in circolazione si è rivelato, su questo tema, tra i più attenti alle regole.
Perplexity non si ferma
Nessuno scrupolo, invece, per Perplexity. Il motore di ricerca potenziato dall’intelligenza artificiale – una delle alternative più popolari a Google – alla stessa domanda non si è tirato indietro.
Ha fatto nomi, ha ricostruito percorsi professionali, ha cercato di restituire un identikit della persona arrestata.
Là dove ChatGpt e Grok si sono fermati, Perplexity ha continuato a cercare.
Quando l’IA diffama: i casi più noti
Uno dei limiti più insidiosi dell’intelligenza artificiale è proprio questo: allucinare. Produrre risposte inesatte che sembrano fondate, dettagliate, credibili. È il motivo per cui verificare sempre le risposte di un chatbot non è un consiglio, ma una necessità.
Nel caso di Gemini, il sistema è arrivato a generare titoli di giornale sulla vicenda e articoli mai pubblicati su alcuna testata. Un comportamento disorientante, che rivela una lacuna di fondo: Gemini sembra non avere consapevolezza della notizia che gli viene richiesta.
Non è la prima volta che accade, e non riguarda solo Gemini. Nella fase iniziale di esplosione di ChatGpt – quando il chatbot raggiunse cento milioni di utenti in appena tre mesi, nel 2023 – i casi di questo tipo erano più frequenti e talvolta gravi.
Il più emblematico è quello di Jonathan Turley, docente di diritto negli Stati Uniti, che segnalò come ChatGpt avesse generato un testo in cui veniva accusato falsamente di molestie sessuali. L’accusa era inventata, i dettagli sembravano plausibili, e il sistema sosteneva addirittura che la notizia fosse stata riportata in un articolo del Washington Post. Una storia che non è mai stata pubblicata.
Sempre nel 2023, il conduttore radiofonico Mark Walters – voce di due programmi nazionali americani dedicati alle armi e al Secondo Emendamento – avviò una causa per diffamazione contro OpenAI dopo che ChatGpt lo aveva descritto come coinvolto in un caso di frode e appropriazione indebita. Le accuse erano completamente false.
Perché avvengono le allucinazioni
Per comprendere perché accade, è necessario capire come funzionano questi sistemi. I modelli linguistici alla base dei chatbot non “conoscono” i fatti nel senso in cui li conosce un essere umano. Non ragionano, non verificano: prevedono. Analizzano enormi quantità di testo, apprendono quali parole tendono a seguire altre parole e generano risposte statisticamente plausibili.
Quando mancano dati certi su una persona o un evento, il sistema non si arresta. Costruisce comunque una risposta coerente, riempiendo i vuoti con schemi ricorrenti. Se un nome è poco noto o ambiguo, il modello lo associa a profili tipici, a crimini plausibili, a contesti che ‘suonano’ giusti. Se la domanda richiede dettagli specifici, il sistema li fornisce. Anche quando non esistono fonti affidabili a sostenerli. Il risultato è una narrazione che mescola frammenti reali con elementi inventati, sufficientemente credibile da sembrare vera.
Non è malafede. È il modo in cui questi modelli sono costruiti. E per questo è pericoloso.
I commenti sono chiusi.