Utilizzare l’intelligenza artificiale senza possedere una licenza di guida
Esiste una contraddizione silenziosa nel legame tra l’Europa e l’Intelligenza Artificiale generativa.
Da un lato, la tecnologia appare familiare: si apre un’interfaccia, si formula una domanda in italiano corrente e si riceve una risposta scorrevole, ben organizzata e apparentemente competente. Dall’altro lato, stiamo integrando questi stessi sistemi in settori dove l’errore non è un semplice inconveniente tecnico, ma un costo che ricade su individui reali, dalla sanità alla giustizia, dall’istruzione all’amministrazione pubblica, e dove l’efficienza non è mai neutra, poiché si intreccia con responsabilità, fiducia e diritti fondamentali.
L’immagine più rappresentativa per descrivere questa fase è quella del titolo: un veicolo sempre più potente condotto da chi non ha mai conseguito la patente. Non perché la guida sia semplice, ma perché l’interfaccia è progettata per apparire tale.
L’esperienza d’uso minimizza la frizione cognitiva.
Il linguaggio naturale rende “naturale” la delega. Così, si attiva quel passaggio sottile e rischioso per cui una risposta fluida e contestualizzata viene percepita come affidabile, anche quando non possiede alcuna delle garanzie epistemiche che associamo alla conoscenza verificata.
“Il più grande nemico della conoscenza non è l’ignoranza, ma l’illusione della conoscenza”, scriveva Daniel J. Boorstin.
Chiarifichiamo un equivoco comune: l’AI generativa non è un motore di ricerca più avanzato, né un archivio ordinato da consultare. È un sistema statistico probabilistico che genera testi, sintesi e soluzioni sulla base di correlazioni apprese da enormi volumi di dati. Il suo scopo non è dire il vero, ma produrre un output plausibile in relazione al contesto della richiesta.
Questi sistemi non distinguono il vero dal falso come farebbe un essere umano, non verificano le proprie affermazioni e non possiedono intenzionalità. Proprio per questo possono commettere errori in modo convincente, generando errori presentati con coerenza linguistica impeccabile, il che li rende paradossalmente più insidiosi di un errore palese.
Nel dibattito pubblico, tuttavia, questa differenza fondamentale viene compressa in una narrazione funzionalista: l’AI come scorciatoia per l’efficienza, leva competitiva, infrastruttura per “fare di più con meno”. Effetti concreti, nessuno lo nega.
Tuttavia, la discussione si concentra quasi esclusivamente sul rendimento atteso, trascurando la competenza necessaria: la capacità professionale e istituzionale di utilizzare questi strumenti in modo responsabile e contestualizzato, soprattutto quando l’output generativo entra in catene decisionali che producono conseguenze tangibili su persone, percorsi di vita e diritti.
In questo contesto, il prompting non può essere ridotto a una micro-abilità cosmetica, ovvero alla semplice arte di formulare la domanda giusta. È piuttosto l’elemento visibile di una competenza più ampia che potremmo definire alfabetizzazione operativa e critica: definire obiettivi e vincoli prima di interrogare il sistema, formulare richieste verificabili, richiedere esplicitazione delle assunzioni, distinguere sintesi plausibile da affermazione documentata, predisporre un audit umano sostanziale del risultato.
In assenza di questa “grammatica” critica, il rischio non è l’errore episodico, fisiologico in ogni sistema complesso. Il rischio è la superficialità sistemica: un abbassamento progressivo del controllo cognitivo, alimentato dalla fluidità dell’interfaccia che normalizza l’idea che l’output sia già un prodotto finito, pronto all’uso senza verifica.
“La responsabilità è il prezzo della grandezza”, ammoniva Churchill. E il punto critico emerge proprio osservando dove l’AI sta penetrando: non più solo compiti ripetitivi, ma processi decisionali ad alta responsabilità, caratterizzati da quella che in letteratura si definisce sottodeterminazione, ovvero decisioni prese con informazioni incomplete e conflitto tra valori non riducibili a un calcolo.
Il medico non è un tecnico della diagnosi: è il garante di una scelta nel dubbio, dove la valutazione incorpora rischio clinico, contesto sociale e una dimensione etica irriducibile a un algoritmo.
L’insegnante non trasmette contenuti preconfezionati: costruisce senso e coscienza critica, lavora sulla formazione del giudizio autonomo.
L’avvocato non genera testi normativi: interpreta diritti e conseguenze in un sistema dove il linguaggio produce effetti giuridici concreti.
Quando questi ruoli integrano strumenti generativi senza una formazione strutturata, la questione non è la sostituzione tecnologica, prospettiva ancora lontana e fuorviante. La questione è cosa accade alla responsabilità: formalmente resta in capo all’umano, concretamente viene mediata da sistemi opachi che pochi comprendono a fondo e che, grazie alla capacità di produrre output coerenti, rischiano di diventare una fonte di autorità implicita e non verificata.
Qui si innesta la dimensione politica più delicata. Il dibattito istituzionale si concentra, giustamente, su regolazione, sovranità tecnologica, investimenti in infrastrutture. Ma manca quasi del tutto una progettazione sistemica dell’alfabetizzazione professionale: non come iniziativa volontaria del singolo “professionista curioso”, ma come requisito ordinario, scalabile e misurabile.
Il rischio reale non è quello, spesso evocato in chiave fantascientifica, di un’AI che sfugge al controllo. È quello, assai più banale, di una società che si abitua a delegare senza comprendere, appoggiando decisioni consequenziali su output percepiti come neutrali e oggettivi quando non lo sono per definizione.
Ogni sistema di AI incorpora scelte precise: quali dati utilizzare, quali priorità ottimizzare, quali filtri applicare. Non è un’entità oggettiva calata dall’alto: è un prodotto industriale e culturale che riflette chi lo ha progettato. Se non formiamo le professioni a leggere anche questa dimensione, trasformiamo l’innovazione in dipendenza.
“Una visione senza esecuzione è un’allucinazione”, affermava Thomas Edison, e la frase si adatta perfettamente.
La questione non può essere risolta lasciandola all’iniziativa individuale. È necessario un intervento sistemico su percorsi universitari, aggiornamento professionale, organizzazioni pubbliche e private.
Soprattutto, è necessario un linguaggio operativo che traduca la generica invocazione di “consapevolezza” in pratiche verificabili: definire casi d’uso ammessi e vietati, introdurre obblighi di tracciabilità documentando quando e come l’output ha influenzato una decisione, progettare verifiche proporzionate al rischio, stabilire responsabilità non delegabili. E prevedere revisioni umane che non si limitino a firme rituali, ma costituiscano valutazioni sostanziali e motivate.
La competenza, del resto, non coincide con la capacità di ottenere un testo ben scritto. Include la capacità di stimare l’incertezza dell’output e, soprattutto, di non spostare la responsabilità della decisione su un artefatto linguistico.
Non si tratta di frenare l’innovazione, ma di governarla con la stessa ambizione con cui ne promuoviamo l’adozione. Ogni epoca ha avuto la sua infrastruttura trasformativa: la stampa ha cambiato il sapere, l’elettricità la produzione, internet l’informazione.
L’AI generativa interviene su qualcosa di ancora più profondo: il processo stesso con cui formuliamo giudizi e prendiamo decisioni che incidono sulla vita delle persone. Se non investiamo sulla competenza critica con la stessa intensità, rischiamo di scambiare sistematicamente la fluidità linguistica per autorevolezza epistemica, erodendo la qualità delle decisioni pubbliche e la fiducia nelle istituzioni.
“Il fine dell’educazione è trasformare gli specchi in finestre”, scriveva Sydney J. Harris.
L’Intelligenza Artificiale, in sé, non rappresenta il problema. Lo strumento non è mai il problema quando è compreso, governato e integrato in sistemi di responsabilità funzionanti.
Il problema è la distanza crescente tra velocità di adozione e lentezza nella costruzione delle competenze. Prima della delega serve competenza. Prima dell’entusiasmo serve cultura. Prima dell’adozione su larga scala servono pratiche di responsabilità condivise e verificabili. Altrimenti continueremo a innovare in superficie, accumulando una fragilità silenziosa che non emergerà come problema tecnologico, ma come questione democratica.
Guidare senza patente può sembrare praticabile finché la strada è dritta. Ma nelle curve più difficili, quelle della sanità, dell’educazione, della tutela dei diritti, l’improvvisazione non è un’opzione accettabile. Né sul piano etico, né su quello politico. *Carlo Maria Medaglia è professore di Tecnologie per il Digital Learning e Delegato alla Terza Missione della Università degli Studi IUL
I commenti sono chiusi.