Saper usare ChatGpt non vi salverà

Saper usare ChatGpt non vi salverà 1

Negli ultimi anni, il dialogo sull’educazione digitale si è focalizzato principalmente sull’acquisizione di abilità tecniche: utilizzare piattaforme, strumenti collaborativi e intelligenza artificiale per generare testi e immagini. Tuttavia, l’accelerazione algoritmica che governa l’informazione attuale sta rivelando un limite intrinseco a questo approccio.

Saper interpretare il digitale

Non è sufficiente sapere come utilizzare il digitale: è fondamentale saperlo interpretare. In un ecosistema in cui ciò che troviamo online è selezionato da algoritmi in base ai nostri gusti e comportamenti passati, con classifiche poco chiare e contenuti generati automaticamente, il vero deficit educativo non è di natura tecnologica, ma cognitiva e critica. Su questo aspetto si gioca attualmente una delle sfide più significative per le scuole e le università.

La ridefinizione del concetto di verità pubblica

La disinformazione non è più un fenomeno marginale o sporadico. Video falsi che sembrano autentici (i cosiddetti “deepfake”), testi generati artificialmente che sembrano scritti da umani, immagini create al computer, manipolazioni statistiche e narrazioni costruite da algoritmi stanno riformulando il concetto stesso di verità pubblica. Secondo numerose ricerche recenti, gli esseri umani tendono a fidarsi di contenuti che appaiono coerenti e ben strutturati, anche quando sono falsi, soprattutto se prodotti da sistemi considerati “neutri” o “intelligenti”. L’intelligenza artificiale, in questo contesto, non genera disinformazione, ma ne accresce la scala, la velocità e la credibilità apparente.

Le istituzioni internazionali hanno cominciato a riconoscere questo tema come una questione educativa fondamentale. L’UNESCO evidenzia che la capacità di valutare criticamente le fonti è diventata una competenza civica imprescindibile, al pari della lettura e della scrittura. Allo stesso modo, l’OCSE sottolinea come l’educazione al pensiero critico debba evolvere per includere la comprensione dei meccanismi algoritmici che influenzano ciò che vediamo, leggiamo e crediamo. Non si tratta più semplicemente di distinguere il vero dal falso, ma di comprendere perché alcuni contenuti emergono e altri svaniscono.

Saper utilizzare ChatGpt non salva dal rischio disinformazione

In questo contesto, discutere di “competenze digitali” senza considerare la dimensione critica rischia di essere ingannevole. Uno studente può essere perfettamente capace di utilizzare o altri strumenti di intelligenza artificiale e, allo stesso tempo, risultare totalmente impreparato di fronte alla manipolazione delle informazioni.

Il problema non è la mancanza di abilità operative, ma l’assenza di quella che potremmo definire “alfabetizzazione alla conoscenza”: la capacità di interrogare le fonti, riconoscere le intenzioni dietro un messaggio, valutare il contesto e comprendere i limiti cognitivi delle macchine. In altre parole, saper distinguere come si genera e si convalida una conoscenza affidabile. Ricerche nel campo della psicologia cognitiva dimostrano che l’esposizione costante a contenuti automatizzati può diminuire la nostra inclinazione al dubbio e promuovere l’accettazione passiva delle informazioni.

Il ruolo della scuola

La scuola, in questo scenario, non può limitarsi a introdurre moduli di educazione digitale convenzionale. È necessario sviluppare una pedagogia del dubbio costruttivo, che insegni agli studenti a sospendere il giudizio, a verificare e a confrontare versioni alternative della realtà. Il Consiglio d’Europa sottolinea esplicitamente il compito dell’educazione nel formare cittadini capaci di resistere alla manipolazione informativa e di partecipare consapevolmente al dibattito pubblico. L’educazione al pensiero critico diventa quindi una forma di difesa democratica.

L’intelligenza artificiale, paradossalmente, può diventare uno strumento potente per sviluppare questo tipo di competenze, se impiegata in modo riflessivo. Analizzare le risposte generate da un modello, confrontare versioni diverse dello stesso contenuto, identificare pregiudizi linguistici nascosti o omissioni sistematiche sono esercizi cognitivi di notevole valore formativo. In alcune sperimentazioni universitarie, l’AI è utilizzata non come fonte di verità, ma come oggetto di analisi critica, trasformando l’errore e l’ambiguità in opportunità di apprendimento. In questo senso, educare al pensiero critico non significa rifiutare la tecnologia, ma riappropriarsi del controllo cognitivo sul suo utilizzo.

L’alfabetizzazione del XXI secolo è il saper giudicare

Ciò che emerge con forza è che la vera alfabetizzazione del XXI secolo non riguarda solo il “saper fare”, ma il saper giudicare. In un mondo caratterizzato da un’informazione abbondante e automatizzata, la capacità di discernimento diviene la competenza più rara e preziosa. Le scuole e le università hanno oggi la responsabilità di formare menti in grado di orientarsi nell’incertezza, riconoscere la complessità e non delegare il pensiero critico agli algoritmi. Senza questo passaggio, il rischio non è solo educativo, ma culturale e democratico.

Se il primo compito dell’educazione è sempre stato quello di fornire strumenti per interpretare il mondo, oggi tale compito assume una complessità inedita. L’informazione non arriva più in modo neutro o lineare, ma è filtrata, organizzata e amplificata da sistemi automatici che operano in background. I sistemi di raccomandazione non si limitano a suggerire contenuti, ma modellano progressivamente il nostro modo di percepire le cose, rinforzando convinzioni pregresse e riducendo l’esposizione a punti di vista diversi. Questo fenomeno delle “bolle informative” – in cui ognuno riceve solo informazioni che confermano le proprie idee – rappresenta una sfida diretta all’educazione critica.

L’educazione alla consapevolezza algoritmica

In questo contesto, educare al pensiero critico implica anche educare alla consapevolezza algoritmica. Gli studenti devono comprendere che ciò che vedono online non è una fotografia della realtà, ma una costruzione dinamica basata su dati personali, economici, popolarità dei contenuti (quanti click, like e condivisioni generano) e sistemi che cercano di prevedere cosa ci interessa. Il Piano d’Azione Europeo per l’Educazione Digitale sottolinea esplicitamente la necessità di introdurre nei curricula una comprensione di base dei meccanismi di personalizzazione algoritmica, non per formare programmatori, ma cittadini capaci di riconoscere l’influenza strutturale delle tecnologie sulle proprie . È un passaggio culturale fondamentale: spostare l’attenzione dal contenuto al contesto che lo genera.

La disinformazione algoritmica non agisce solo a livello informativo, ma anche emotivo. Molti studi dimostrano che i contenuti che suscitano reazioni forti – indignazione, paura, entusiasmo – hanno una maggiore probabilità di diffusione, indipendentemente dalla loro accuratezza. Ciò implica che la battaglia per il pensiero critico non si gioca soltanto sulla verifica dei fatti, ma anche sulla regolazione emotiva. Educare al pensiero critico oggi significa insegnare a riconoscere le proprie reazioni emotive, a sospendere l’impulso alla condivisione immediata e a ricostruire una distanza riflessiva tra stimolo e giudizio.

Così le scuole stanno introducendo pratiche didattiche innovative

Le scuole e le università che affrontano questo tema in modo sistematico stanno introducendo pratiche didattiche innovative: analisi comparativa delle fonti, smontaggio guidato di narrazioni manipolative, laboratori di verifica delle notizie, simulazioni di diffusione virale delle informazioni. In alcuni casi, l’AI stessa viene utilizzata per dimostrare come una notizia possa essere riscritta in versioni diverse, ognuna plausibile ma orientata, rendendo visibile il confine sottile tra informazione e persuasione. Questo approccio è in linea con le raccomandazioni dell’OCSE, che definisce il pensiero critico come la capacità di “esaminare questioni globali da prospettive multiple”.

Un altro aspetto cruciale riguarda la responsabilità nel giudicare le informazioni. In un ambiente informativo automatizzato, aumenta il rischio di delegare il giudizio alle macchine: se un testo è ben scritto, coerente e rapido, viene percepito come affidabile. Ricerche recenti mostrano che gli utenti tendono ad attribuire un’autorità indebita alle risposte generate dall’AI, specialmente in ambiti complessi o specializzati. Educare al pensiero critico implica quindi insegnare che l’autorevolezza non deriva dalla forma, ma dalla verificabilità, dal confronto e dalla trasparenza delle fonti.

Dal punto di vista delle politiche pubbliche, questo tema è ormai considerato strategico. L’UNESCO sottolinea che senza un investimento strutturale nell’educazione al pensiero critico, l’adozione dell’intelligenza artificiale rischia di amplificare le disuguaglianze cognitive, favorendo coloro che già possiedono strumenti interpretativi avanzati. Il rischio non è solo la diffusione di informazioni false, ma la creazione di un divario nella capacità di comprendere e valutare le informazioni: una situazione in cui solo una parte della popolazione è in grado di orientarsi consapevolmente nel flusso informativo, mentre gli altri ne restano vittime passive.

Una funzione strutturale della scuola contemporanea

In conclusione, educare al pensiero critico nell’era della disinformazione algoritmica non è un obiettivo secondario, ma una funzione strutturale della scuola moderna. Non si tratta di opporre l’educazione all’innovazione tecnologica, ma di accompagnarla con una riflessione profonda riguardo ai suoi effetti cognitivi e sociali. La vera sfida non consiste nell’insegnare a utilizzare strumenti sempre più potenti, ma nel formare individui capaci di non esserne dominati. In un mondo in cui l’informazione è rapida, automatizzata e spesso ambigua, il pensiero critico diviene l’ultima forma di libertà intellettuale che l’educazione è chiamata a preservare.

* Università degli Studi IUL

Lascia una risposta

L'indirizzo email non verrà pubblicato.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More