Conoscere il mondo è diventato una lotteria ad alto rischio. 2026, l’era dell’Epistemia
Illudersi di avere conoscenze. Considerarsi esperti. Peggio ancora: diventare megafoni passivi di informazioni che nessuno ha realmente appreso o assimilato. Secondo vari studi, l’impiego dei grandi modelli linguistici (Llm) sta gettando le fondamenta per una nuova forma di conoscenza. Almeno per quella che circola online e origina dai software di intelligenza artificiale. Più che una evoluzione, si tratta di una degenerazione. Dall’episteme, l’aspirazione ideale a una conoscenza certa, all’Epistemia, un processo in cui la conoscenza si riduce a una forma ben strutturata di nozioni vuote, ma sintatticamente corrette.
L’IA genera testi ben formulati, ma privi di sostanza
L’IA produce testi. Testi ben scritti. Belle forme. Ma senza una reale comprensione di ciò di cui discute. E, soprattutto, senza trasmettere una forma di conoscenza verificata. Tuttavia, tramite le sue belle forme, crea un’illusione. Un’aspirazione. Che si manifesta in diverse modalità. Post sui social. Risposte apparentemente precise. Articoli su blog. Persone che all’improvviso si dichiarano esperti in ambiti di cui, fino a poco tempo prima, non avevano nemmeno conoscenza.
“L’Epistemia è una patologia degenerativa del concetto di conoscenza. Se smettiamo di esigere la verifica dei fatti e ci accontentiamo di una bella forma sintattica, che è ciò di cui sono capaci i modelli linguistici, perdiamo la capacità di distinguere il mondo reale dalle allucinazioni statistiche (dell’intelligenza artificiale)”. Walter Quattrociocchi ha coniato il termine Epistemia. Professore ordinario alla Sapienza di Roma, è uno dei massimi esperti di Data science e Sistemi complessi. Le sue ricerche sono spesso oggetto di discussione. È stato tra i primi a evidenziare l’inutilità del fact-checking e del debunking come strumenti per purificare il dibattito pubblico dalle fake news, prima ancora che diventasse evidente. Prima che si prendesse realmente coscienza di ciò.
Le IA generative come macchine di conferma: dalle eco-chamber all’AI Overview
Se in quel caso ha teorizzato come le “eco-chamber” (forum, social, canali dove individui convinti di determinate idee trovano conferma delle loro convinzioni) siano diventate macchine di conferma dei pregiudizi, oggi sostiene che gli stessi modelli linguistici di grandi dimensioni sono macchine di conferma: “L’Epistemia digitale non è neutra. Poiché i modelli linguistici apprendono dai testi umani, spesso contaminati da pregiudizi, la stessa Epistemia si porta appresso quei pregiudizi”. Inoltre: “Avendo solo il compito di produrre testi ben scritti, anche meglio di un umano, li troviamo convincenti. Anche quando dietro si celano bias e allucinazioni statistiche”.
C’è un modo per evitarlo? “No”, risponde seccamente Quattrociocchi. Cosa possiamo fare per non cadere vittima di questo meccanismo di illusione della conoscenza? “Utilizzare questi strumenti cum grano salis (con le debite precauzioni, ndr). Essendo consapevoli che non sono strumenti di verità, ma di bella forma linguistica, che imitano il nostro linguaggio, la nostra conoscenza, la nostra intelligenza. Ma non possiedono nessuna delle tre. E chi afferma il contrario o non li ha compresi, o agisce in malafede”.
Google Overview è l’esempio perfetto, chiarisce Quattrociocchi, per illustrare quanto sta accadendo: “Fino ad ora, i motori di ricerca hanno funto da filtro delle informazioni, offrendo a chi cerca la possibilità di selezionare le fonti. Quando si passa dalla modalità filtro a quella di generazione di testo, di risposte, il motore di ricerca smette di cercare per noi, ma produce dei testi, i più plausibili rispetto a ciò che cerchiamo. I più vicini al tipo di domande che poniamo, alle nostre intenzioni”. Smette quindi di limitarsi alla ricerca e genera un testo. Una sintesi. Comoda, persuasiva, quindi in qualche modo ‘vincente’.
La lotteria delle risposte: costruite in base al modo in cui l’IA ha appreso a comporre i testi
Un esempio nella ricerca che ha portato alla formulazione del concetto di Epistemia è particolarmente pertinente per comprendere di cosa si tratta. Riguarda Donald Trump e le fake news: “Ci siamo accorti che nelle risposte (generate dai LLM) su Donald Trump spesso compariva la parola fake news. Quando abbiamo cercato di capire il perché, abbiamo notato qualcosa di interessante. Avendo appreso durante l’addestramento da testi che associavano frequentemente Trump e fake news, il software le colloca in contesti contigui nelle risposte. Il testo generato ha lo stesso valore di un’estrazione al lotto o alla tombola. Solo che le lettere e i numeri che ‘estrae’ uno accanto all’altro sono in qualche modo interconnessi. Li posiziona affianco perché così ha imparato dai testi. La verità è che è solo un generatore di testo. Dato un token, una parola, prevede quella successiva. E noi ci illudiamo che ciò rappresenti conoscenza”. Fino al punto da utilizzare quei risultati. Spacciarli per nostri. Presentare quella conoscenza nei testi che scriviamo come se fosse reale conoscenza acquisita. Che diventa podcast, post, qualsiasi contenuto online.
Risparmiare il nostro tempo e le nostre energie mentali
Le ricerche di Quattrociocchi sono state citate in un recente articolo del Wall Street Journal. L’autore, oltre a citarlo, avanza un’ipotesi: per liberarsi dal dominio di questa falsa conoscenza, è necessario iniziare a filtrare le fonti delle nostre informazioni. Non dopo, ma immediatamente. Non appena si scopre che è una fonte poco affidabile, eliminarla. Risparmiare le nostre energie mentali. La nostra attenzione. Perché la nostra attenzione è l’unica cosa che conta. E cederla senza riflessione è errato. Sia che si tratti di marketing che avvolge tutto il dibattito sull’IA. Sia che si tratti di chi si nutre di quel marketing senza riflessione: “C’è una vicinanza imbarazzante di certo giornalismo con il marketing delle aziende che producono IA”, riflette Quattrociocchi.
“È un settore colmo di disinformazione. Anche se prodotto da professionisti della comunicazione, qualificati, che trovano legittimità solo perché parte del circuito informativo”. Per il ricercatore, pezzi dell’Epistemia in carne ed ossa. Anelli della catena della falsa conoscenza. “Si sente parlare di apocalissi, super intelligenze, coscienze. La verità è che la scienza nega l’esistenza di tutto questo. E qualsiasi ragionamento si faccia sull’IA, se non è ancorato al metodo scientifico e alla verifica scientifica, semplicemente non ha senso”.