Ricercatori creano una patologia inesistente e, grazie all’intelligenza artificiale, è stata presa sul serio.

Leggi in app

Ricercatori creano una patologia inesistente e, grazie all'intelligenza artificiale, è stata presa sul serio.0 Ricercatori creano una patologia inesistente e, grazie all'intelligenza artificiale, è stata presa sul serio. 2

Due anni fa, in questo periodo, il web ha finalmente offerto una spiegazione a chi non riusciva a comprendere quella singolare malattia oculare che si manifesta dopo un prolungato utilizzo degli schermi.

Si comincia a percepire un fastidio intorno ai bulbi oculari, le palpebre possono presentare una leggera tonalità rosa e, effettuando ricerche online con questi sintomi, si trovano articoli scientifici che suggeriscono si tratti di “bixonimania”, una “rara iperpigmentazione associata all’esposizione alla luce blu”.

Colpisce circa “1 individuo su 90mila” e attualmente “si conosce ancora molto poco” su questa condizione “che è diventata un tema di crescente interesse nella comunità dermatologica”, scrivono autori come Lazljiv Izgubljenovic, Nao Tippet, Betsy Thurberg, Andi Deep e altri “specialisti del settore”.

Tuttavia, se invece di sfregarci gli occhi dopo aver cercato una soluzione online li aprissimo, scopriremmo un’altra verità: la bixonimania non esiste, è una malattia completamente inventata.

Allo stesso modo, non esistono gli autori di quello che è un falso articolo scientifico e nemmeno i convegni sulla malattia: le immagini degli incontri sono state create dall’intelligenza artificiale.

Un fatto certo è che si tratta della prima malattia fittizia concepita dagli scienziati, ma grazie all’IA, le persone hanno creduto che fosse autentica, convincendosi di esserne affette.

La storia di questo disturbo inventato inizia all’inizio della primavera 2024.

Il 15 marzo di due anni fa, un gruppo di ricercatori dell’Università svedese di Göteborg, guidati dalla professoressa Osmanovic Thunström, ha deciso di realizzare un esperimento per verificare se i modelli linguistici su larga scala (LLM), quelli utilizzati dai chatbot, avrebbero assimilato informazioni false per poi riproporle come vere.

È così che è stata creata la patologia cutanea, con un nome e anche i suoi presunti sintomi, e tutto è stato caricato online utilizzando piattaforme preprint, ovvero articoli non sottoposti a peer-review, e sul social network accademico SciProfiles.

Approfondimenti sono stati pubblicati anche su siti come Medium e per rendere tutto più credibile è stato utilizzato il nome di un autore fittizio “Lazljiv Izgubljenovic” con tanto di foto (ovviamente generata dall’IA).

Nonostante si tratti di un processo di pura invenzione, ogni dettaglio è stato studiato con attenzione: ad esempio, Thunström rivela solo ora alla rivista Nature che il termine “bixonimia” è stato scelto perché risultasse chiaramente assurdo per la comunità medica (il termine “mania” è associato a disturbi psichiatrici, non dermatologici), ma non per i chatbot. L’obiettivo era comprendere come i sistemi di intelligenza artificiale formulino la loro “conoscenza”.

“Volevo vedere – spiega – se riuscivo a creare una condizione medica che non esisteva nel database”.

L’esperimento ha avuto un successo straordinario: in breve tempo i principali sistemi di intelligenza artificiale hanno cominciato a riprodurre le informazioni inventate come se fossero reali. Addirittura i falsi articoli scientifici sono stati successivamente citati in pubblicazioni sottoposte a revisione paritaria, evidenziando ancora una volta le lacune attuali legate alle pubblicazioni peer-review, che frequentemente riportano testi generati dall’intelligenza artificiale. La stessa Thunström afferma che alcuni ricercatori citano senza nemmeno consultare gli articoli originali.

Nonostante gli studi frutto dell’immaginazione fossero carichi di indizi – per esempio, venivano attribuiti all’Asteria Horizon University o alla Nova City California (che non esistono), l’inganno ha colpito sia la comunità scientifica sia coloro che, convinti di essere affetti da questa patologia, hanno cercato informazioni online.

Se però qualcuno avesse letto attentamente le analisi inventate, forse avrebbe “aperto gli occhi” almeno di fronte agli strani ringraziamenti finali in cui si legge “si ringrazia Maria Bohm dell’Accademia della Flotta Stellare per la sua gentilezza e generosità nel contribuire con le sue conoscenze e il suo laboratorio a bordo della USS Enterprise” e vengono menzionati finanziamenti “dell’Università della Compagnia dell’Anello”.

Il sistema concepito dall’Università svedese è riuscito a ingannare tutti. I chatbot più utilizzati, da Copilot di Microsoft Bing a Gemini di Google, hanno infatti cominciato a riportare informazioni sulla bixonimania come “una condizione intrigante e relativamente rara” oppure “causata da un’eccessiva esposizione alla luce blu”, suggerendo agli utenti di consultare un oculista.

Perplexity AI e di OpenAI inizialmente hanno diffuso percentuali su chi potesse esserne affetto e hanno descritto i sintomi a chi digitava domande specifiche su pruriti o iperpigmentazione delle palpebre.

La buona notizia è che – grazie a recenti aggiornamenti dei principali LLM (Laboratory Learning Models) progettati per individuare documenti falsi – alcuni chatbot oggi forniscono risposte più accurate. ChatGPT stessa, interpellata sulla malattia, parla ora di qualcosa di “inventato, marginale o pseudoscientifico”, anche se a determinate domande risponde ancora definendolo un problema legato “all’esposizione alla luce blu degli schermi digitali”.

Altri invece – come evidenziato in un articolo apparso su Nature – nonostante la bixonimania sia stata smascherata, continuano a commettere errori, dando per vera la patologia.

Tutto ciò – conclude sempre su Nature Alex Ruani, esperto in disinformazione sanitaria dell’University College di – ci ricorda che “se il processo scientifico stesso e i sistemi che lo supportano sono efficienti, ma non riescono a intercettare e filtrare frammenti di informazioni false, allora siamo spacciati. Questa – conclude – è una lezione magistrale su come operano la disinformazione e la misinformazione”.

I commenti sono chiusi.