Raffaele Gaito: «Di fronte all’intelligenza artificiale, la questione fondamentale è quali richieste le poniamo»
Leggi in app
Di fronte a un dispositivo capace di rispondere a qualsiasi interrogativo, il vero problema non risiede nella risposta, ma nella domanda. «Per la prima volta ci troviamo davanti a una macchina in grado di rispondere a qualsiasi cosa, quindi le domande diventano fondamentali. La questione è: cosa le chiedo? Quali interrogativi pongo?».
Raffaele Gaito, divulgatore e oratore, si trova a Milano per presentare il suo settimo libro. In che modo posso esserti utile? Una guida pratica e poco emotiva all’intelligenza artificiale, pubblicata da Mondadori.
Lo incontriamo in un palazzo che si affaccia su un giardino luminoso. Un ambiente che sembra fornire il contesto ideale per riflettere su una tecnologia spesso descritta come un’onda: qualcosa che può travolgerci, se restiamo passivi e spaventati, oppure che possiamo imparare a cavalcare, migliorando le nostre abilità.
Il punto di partenza di Gaito, però, è differente: allontanarsi sia dal catastrofismo che dall’entusiasmo irrazionale.
«È un libro che tratta dell’approccio all’intelligenza artificiale: né terrorizzato né eccessivamente entusiasta. Qualcosa di più razionale. Si tratta di una tecnologia con potenzialità e rischi».
In fondo, la sua è una questione di mentalità; porre le domande al centro.
«Stiamo osservando persone che la utilizzano come psicologo, come amico, come un oracolo. È una rivoluzione senza precedenti, perché per la prima volta interagiamo con un software: in passato non parlavamo con Photoshop o con Excel. Per questo motivo dobbiamo ricordarci di mantenere attivo il nostro cervello. Mai come ora abbiamo bisogno di quel senso critico che molti stanno trascurando, semplicemente perché è troppo semplice delegare alla macchina. E invece dovremmo chiederci: a cosa stiamo rinunciando? L’equilibrio si trova lì. Tra il rifiuto della tecnologia e l’affidamento totale. E si raggiunge solo continuando a esercitare il giudizio, senza perdere la nostra umanità».
Quali sono, in concreto, gli errori da evitare?
«La macchina ti offre sempre delle pacche sulle spalle. Ti dice sempre che sei bravissima, che la tua idea è geniale. Ma questo non è utile. Non è realistico e soprattutto non rappresenta un feedback costruttivo, perché la vita non funziona in questo modo. Dobbiamo imparare a contrastare questa dinamica».
Come? «Facendole assumere il ruolo più scomodo: quello dell’avvocato del diavolo. Dobbiamo utilizzarla in modo critico. Chiederle: quali sono le criticità della mia idea, spiegami cosa non funziona, forniscimi un elenco di pro e contro, sollevami delle obiezioni. Se tu fossi il mio potenziale cliente, quali dubbi avresti riguardo a questo progetto? C’è qualcosa che mi sfugge? In questo la macchina può rivelarsi molto utile: ci aiuta a individuare connessioni e punti ciechi che da soli potremmo non notare».
Tuttavia, come afferma nel libro, esiste un altro livello, più sottile.
«Questi modelli sono progettati per farci rimanere all’interno. La piattaforma non desidera che tu esca e ti venga voglia di fare altro: vuole che tu trascorra quanto più tempo possibile in ChatGPT, soprattutto ora che stanno arrivando anche le pubblicità».
Apro il libro a caso e mi soffermo a pagina 126, nel capitolo dedicato alle “parole pericolose”. Di cosa si tratta?
«Quando formuli la tua domanda, devi prestare attenzione a una serie di parole che rivelano la presenza di bias. Termini come “ovviamente”, “chiaramente”, “sicuramente”. Sono segnali dei tuoi pregiudizi, che, sommati a quelli della macchina, possono innescare una tempesta perfetta».
Ed è anche per questo che il libro non si rivolge esclusivamente a imprenditori, professionisti o manager. Si rivolge a chiunque abbia iniziato a utilizzare questi strumenti nella vita quotidiana: persone che li interrogano per lavoro, ma anche per motivi personali, studenti, chi ha più esperienza. A tutti noi.
Quando gli chiedo cosa desidererebbe lasciare in eredità con questo libro, la risposta si sposta su un piano più personale.
«Sono una persona molto appassionata della tecnologia, forse anche troppo. Col tempo mi sono reso conto di aver commesso un errore di gioventù con i social media. Ero entusiasta, vedevo solo il lato positivo. Poi, quindici anni dopo, come molti altri, ho compreso che c’erano anche limiti, effetti collaterali, problemi che allora non riuscivamo a percepire. Pensavamo che ci avrebbero connesso di più, e invece in molti casi ci hanno resi più soli. L’eredità che vorrei lasciare è proprio questa: non ripetere lo stesso errore con l’intelligenza artificiale. È una tecnologia potentissima ma presenta dei rischi. Per questo, nel raccontarla, mi sono imposto una regola semplice: se c’è qualcosa che non funziona, lo dico. Se c’è un problema, lo menziono. Se c’è un limite tecnico, non lo nascondo. L’errore più grande è pensare che sia una tecnologia neutra. Non lo è. Porta con sé bias e pregiudizi che derivano da noi, poiché siamo noi a costruirla, addestrarla e alimentarla con i nostri dati. Ecco perché riconoscere che non è oggettiva è il primo passo per utilizzarla correttamente».
Alla fine, la parola che emerge più di tutte, nell’intervista come nel libro, è una sola: consapevolezza.
I commenti sono chiusi.