Conoscere il mondo è diventato una lotteria ad alto rischio. 2026, l’era dell’Epistemia

Conoscere il mondo è diventato una lotteria ad alto rischio. 2026, l’era dell’Epistemia 1

Illudersi di avere conoscenza. Considerarsi esperti. Peggio ancora: diventare un megafono passivo per informazioni che nessuno ha realmente appreso o assimilato. Secondo vari studi, l’impiego dei modelli linguistici di grandi dimensioni (Llm) sta gettando le fondamenta per una nuova forma di conoscenza. Almeno per quella che circola online e ha origine dai software di intelligenza artificiale. Più che una progressione, si tratta di una regressione. Dall’episteme, l’ideale di una conoscenza certa, all’Epistemia, un processo in cui la conoscenza diventa solo una forma ben redatta di concetti vuoti, pur essendo sintatticamente impeccabili.

L’IA genera testi ben scritti, ma privi di contenuto

L’IA crea testi. Testi di qualità. Belle formulazioni. Ma senza una vera comprensione di ciò di cui discute. E soprattutto priva di una forma di conoscenza verificata. Tuttavia, con le sue eleganti costruzioni, trasmette un’illusione. Un’aspirazione. Che si manifesta in molteplici forme. Post sui social media. Risposte che sembrano precise. Articoli su blog. Persone che all’improvviso si autodefiniscono esperte in ambiti di cui fino a poco tempo fa non avevano nemmeno idea.

“L’Epistemia è una malattia degenerativa del concetto di conoscenza. Se smettiamo di richiedere la verifica dei fatti e ci accontentiamo della bella forma sintattica, ciò che i modelli linguistici sono capaci di fare, perdiamo la capacità di distinguere il mondo reale dalle illusioni statistiche (dell’intelligenza artificiale)”. Walter Quattrociocchi ha coniato il termine Epistemia. Professore alla Sapienza di , è uno dei massimi esperti in Data science e Sistemi complessi. Le sue ricerche sono frequentemente oggetto di discussione. È stato uno dei primi a evidenziare l’inutilità del fact-checking e del debunking come strumenti per ripulire il dibattito pubblico dalle fake news. Prima ancora che ciò diventasse evidente. Prima che si prendesse realmente consapevolezza della questione.

Le IA generative come strumenti di conferma: dalle eco-chamber all’AI Overview

Se in quel caso ha teorizzato come le “eco-chamber” (forum, social, canali dove individui convinti di certe idee trovano conferma delle loro credenze) siano diventate delle macchine di conferma dei pregiudizi, oggi sostiene che i medesimi modelli linguistici di grandi dimensioni siano macchine di conferma: “L’Epistemia digitale non è imparziale. Poiché i modelli linguistici apprendono dai testi umani, spesso contaminati da pregiudizi, la stessa Epistemia porta con sé quei pregiudizi”. Di più: “Avendo solo la funzione di produrre testi ben scritti, anche meglio di un umano, li troviamo persuasivi. Anche quando sono accompagnati da bias e illusioni statistiche”.

C’è un modo per evitarlo? “No”, risponde seccamente Quattrociocchi. Cosa possiamo fare per sfuggire a questo meccanismo di illusione della conoscenza? “Utilizzare questi strumenti con discernimento (con le giuste dosi, ndr). Essendo consapevoli che non sono strumenti di verità, ma di bella forma linguistica, che imitano il nostro linguaggio, la nostra conoscenza, la nostra intelligenza. Ma non possiedono nessuna delle tre. E chi sostiene il contrario o non li ha compresi, o agisce in mala fede”.

Google Overview è l’esempio perfetto, spiega Quattrociocchi, per illustrare ciò che sta accadendo: “Fino ad ora, i motori di ricerca hanno svolto la funzione di filtro delle informazioni, offrendo a chi cerca la possibilità di selezionare le fonti. Quando passo dalla modalità filtro a quella di generazione di testi, di risposte, il motore di ricerca smette di cercare per noi, ma produce testi, i più plausibili rispetto a ciò che stiamo cercando. I più affini al tipo di domande che poniamo, alle nostre intenzioni”. Così smette di fare solo ricerca e genera un testo. Una sintesi. Comoda, convincente, quindi in qualche modo ‘vincente’.

La lotteria delle risposte: costruite secondo il modo in cui l’IA ha appreso a generare testi

Esiste un esempio nella ricerca che ha portato alla teorizzazione di Epistemia, particolarmente pertinente per capire di cosa si tratta. Riguarda Donald e le fake news: “Abbiamo notato che nelle risposte (generate dai LLM) su Donald Trump la parola fake news appariva frequentemente. Quando abbiamo cercato di capire il motivo, abbiamo scoperto qualcosa di interessante. Avendo appreso durante l’addestramento da testi che associavano spesso Trump a fake news, il software le colloca in contesti vicini nelle sue risposte. Il testo generato ha la stessa valenza di un’estrazione al lotto o alla tombola. Solo che lettere e numeri ‘estratti’ uno accanto all’altro sono, in qualche modo, collegati. Li affianca perché così ha appreso dai testi. La verità è che è solo un generatore di testo. Dato un token, una parola, prevede quella successiva. E noi ci illudiamo che quella sia conoscenza”. Fino al punto da utilizzare quei risultati. Spacciarli per nostri. Presentare quella conoscenza nei testi che scriviamo come se fosse una reale conoscenza acquisita. Che diventa podcast, post, qualsiasi contenuto online.

Risparmiare il nostro tempo e le nostre energie mentali

Le ricerche di Quattrociocchi sono state citate in un recente articolo del Wall Street Journal. L’autore, oltre a citarlo, propone un’ipotesi: per liberarsi dal dominio di questa falsa conoscenza, è necessario iniziare a filtrare le fonti delle nostre informazioni. Non dopo, ma immediatamente. Non appena si scopre che una fonte è poco attendibile, va scartata. Risparmiare le nostre energie mentali. La nostra attenzione. Perché la nostra attenzione è l’unica cosa che conta. E cederla senza una riflessione adeguata è errato. Sia che ciò avvenga nei confronti del marketing che avvolge tutto il dibattito sull’IA. Sia che lo si faccia nei confronti di chi si nutre di quel marketing senza riflessione: “C’è una vicinanza imbarazzante di certo giornalismo con il marketing delle aziende che producono IA”, riflette Quattrociocchi.

“È un settore saturo di disinformazione. Anche se prodotto da professionisti della comunicazione, qualificati, che trovano legittimità solo perché parte del circuito informativo”. Per il ricercatore, elementi dell’Epistemia in carne ed ossa. Anelli della catena della falsa conoscenza. “Si sente parlare di apocalissi, super intelligenze, coscienze. La verità è che la scienza nega l’esistenza di tutto ciò. E qualsiasi ragionamento fatto sull’IA, se non è ancorato al metodo scientifico e alla verifica scientifica, semplicemente non ha senso”.

Lascia una risposta

L'indirizzo email non verrà pubblicato.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More