Esercizi di stile: quale significato ha la retorica dell’intelligenza artificiale?
Leggi in app
Luciano Floridi
La meditazione sul linguaggio e sul suo utilizzo è un elemento fondamentale della filosofia. Non solo perché, come affermava Wittgenstein nel Tractatus, “i confini del mio linguaggio sono i confini del mio mondo”; ma anche perché è nel linguaggio che si riflettono dinamiche di potere, tradizioni e concezioni. Nel linguaggio, sebbene non risieda l’Essere, sicuramente risiede l’essere umano, sia come individuo che come collettività.
Il capitale semantico
È ciò che Luciano Floridi definisce “capitale semantico”, ovvero l’insieme di conoscenze, esperienze, valori e significati che gli esseri umani accumulano per interpretare e dare significato alla realtà. Il filosofo italiano, fondatore e direttore dello Yale Center for Digital Ethics e docente di Scienze Cognitive presso la Yale University, sarà presente il 17 maggio al Salone del Libro di Torino, dove nella Sala Blu, alle 17:30, terrà una lezione ispirata ai suoi ultimi lavori, La differenza fondamentale (Mondadori) e Il nodo etico (Raffaello Cortina).
Per Floridi, il capitale semantico rappresenta un patrimonio personale e collettivo essenziale nell’era dell’IA per differenziarsi dalle macchine, ed è distinto dalla mera informazione poiché arricchito di significato e contesto. Il linguaggio non si identifica direttamente con il capitale semantico, ma ne costituisce una delle forme principali: analizzarne la forma e la struttura, confrontarlo con altri linguaggi, ci aiuta a sviluppare una consapevolezza di chi siamo e dove ci troviamo. A collocarci alla fine di un processo storico (o di una catena di rovine, come scriveva Walter Benjamin in Angelus Novus). E forse a identificare segnali che possono preannunciare trasformazioni significative anche in ambiti apparentemente distanti dall’arte e dalla filosofia.
La lista
Sul suo profilo Facebook, Floridi condivide frequentemente frammenti di riflessioni filosofiche. Recentemente, ad esempio, ha pubblicato un’analisi dei testi generati dai Large Language Models, i grandi modelli linguistici alla base delle piattaforme di intelligenza artificiale più diffuse. L’oggetto immediato dell’indagine è Claude, il chatbot di Anthropic, ma le osservazioni del filosofo si applicano anche ad altri modelli, a partire da ChatGPT. Il suo elenco nasce come un’analisi stilistica, quindi si distacca dal funzionamento tecnico di questi sistemi e si concentra su alcuni loro tic e peculiarità formali. Peculiarità che possono essere attenuate o eliminate quasi completamente con istruzioni specifiche: “Servono però prompt più elaborati, un archivio di file su cui l’LLM si esercita per apprendere lo stile, un altro dove inserire tutte le cose che si desidera implementare o evitare”, ricorda il filosofo. “Un LLM è un’interfaccia verso tutte le informazioni del mondo, se lo utilizzi in modo errato emergono una serie di luoghi comuni, ma se lo utilizzi correttamente puoi ampliare la conoscenza umana. È lo strumento statistico più avanzato mai creato, su una base dati immensa: è una Ferrari, ma ci sono persone che la usano per andare in prima sull’autostrada”.
Vezzi formali e necessità pratiche
Tuttavia, la maggior parte di chi utilizza l’IA, per pigrizia o mancanza di preparazione, si limita a prompt generici. Da ciò derivano alcuni vezzi che possono essere puramente formali, come l’uso eccessivo del grassetto (“come se il lettore non riuscisse a individuare autonomamente le parti importanti”), o quella che definisce “elencazione paranoica”, ma anche l’impiego del trattino lungo, in inglese “em dash”, che in italiano è praticamente assente.
Altri espedienti sono pratici, servono a guadagnare tempo per elaborare i dati prima di giungere alla risposta effettiva. Nel linguaggio comune sarebbero frasi sospese, silenzi, intercalari. In quello di un chatbot diventano incipit compiacenti (“Ottima domanda!”, “È un punto davvero interessante!”, “Assolutamente!”), preamboli superflui, lunghi giri di parole senza arrivare al punto: “Prima di entrare nel merito, cerchiamo di capire…”, “Per rispondere, dobbiamo fare un passo indietro…”. E ancora, “metacommenti gratuiti”, che descrivono la complessità del tema invece di affrontarlo (“Questo è un tema sfumato”, “È una questione complessa senza risposte semplici”, “C’è molto da esplorare qui”). Oppure transizioni stereotipate (“Entriamo nel vivo”, “Svisceriamolo”, “Scomponiamolo”), o rafforzativi vuoti: se nel testo ci sono troppi “davvero”, “veramente”, “incredibilmente”, “notevolmente”, “profondamente”, è quasi certo che si tratta di un prodotto dell’IA. Così come se abbondano le anticipazioni per creare suspense, senza però rivelare subito la questione: “Ecco il punto…”, “Ecco dove diventa interessante…”.
Un ulteriore tratto stilistico caratteristico dell’IA è la ripetizione di quanto l’utente ha appena detto, una peculiarità dei chatbot fin dal loro lontano antenato Eliza. Progettato nel 1966 per emulare il comportamento di uno psicologo, questo software prende il nome da Eliza Doolittle, personaggio di G. B. Shaw che desidera imparare a esprimersi in modo elegante. Per farlo, un chatbot ha diversi metodi: tra gli altri, utilizzare quella che Floridi chiama “tripletta magica”, aggettivi o sostantivi in gruppi di tre; accumulare sinonimi per generare enfasi vuota; ricorrere a espressioni che denotano finta profondità, come “Tutto sommato”, “Nella sua essenza”, “Fondamentalmente”.
Codardia epistemica
È importante considerare che un LLM è un prodotto commerciale, quindi alcuni degli espedienti retorici che adotta servono a evitare prese di posizione che potrebbero tradursi in danni d’immagine per l’azienda che lo ha sviluppato. Floridi la definisce “codardia epistemica”: non si tratta esattamente di bias, ma di una messa a punto meticolosa del tono e del contenuto, in modo che l’artefatto generato dall’IA non possa essere considerato offensivo o discriminatorio per nessuno. A questo scopo servono espressioni come “Ci sono argomenti validi da entrambe le parti”, “Dipende davvero dal contesto”, “Le persone ragionevoli non sono d’accordo”, “Non esiste una risposta valida per tutti”. Ma in generale, tipica degli LLM è una certa cautela, un’attenuazione compulsiva per evitare di esporsi (“Vale la pena notare”, “si potrebbe sostenere”, “in una certa misura”), così come la tendenza ad “ambivalenza forzata, precisazioni non richieste, esaustività ossessiva”. Tutto ciò non sempre è sufficiente, gli sforzi dei programmatori e di chi addestra il sistema a volte falliscono e scaturiscono polemiche: nel 2016, Microsoft fu costretta a chiudere in meno di un giorno Tay, un chatbot su Twitter pensato per conversare in stile giovanile e apprendere dalle interazioni con gli utenti. Lo scorso anno, OpenAI ha dovuto fare marcia indietro su un aggiornamento che rendeva ChatGPT troppo incline a dare ragione all’utente, più recentemente ha dovuto rivedere lo stile delle risposte della versione 5, criticato dagli utenti per essere troppo asciutto. Senza contare Grok, la piattaforma di intelligenza artificiale di Elon Musk, che ha prodotto e diffuso su X contenuti antisemiti, post offensivi e razzisti, e perfino elogi a Hitler.
Oltre lo specchio
Ma da dove gli LLM hanno attinto i luoghi comuni e gli espedienti retorici che utilizzano? Dagli esseri umani, dal loro linguaggio: libri, post sui social, articoli e blog online, che costituiscono la materia prima su cui questi sistemi vengono addestrati. E, come in uno specchio, la vuota pomposità delle risposte della macchina ci mette di fronte alla proliferazione di espressioni prive di senso nel linguaggio umano. Dopo secoli dedicati a insegnare a retori e persone comuni come abbellire i propri discorsi, l’intelligenza artificiale ha industrializzato il processo. Floridi identifica anche altri vezzi dell’IA: “Pensare positivo, chiudere sempre con una nota edificante o di speranza anche quando non è necessario; riassunto ispirazionale, terminare con una frase generica che suona saggia ma non comunica nulla”. Qui la retorica non è la capacità di scrivere o parlare bene, né l’arte di persuadere in senso nobile, ma diventa l’insieme di strategie che producono un effetto di credibilità. Un LLM genera testo senza fare esperienza, senza rischio, senza una posta in gioco: e proprio per questo tende a produrre quella che Carlo Michelstaedter, filosofo e scrittore goriziano del primo Novecento, definiva “rettorica”, un insieme di strutture che sembrano sostenere un discorso anche quando la comprensione manca o non è verificabile. Quante di queste fanno parte del nostro modo di esprimerci quotidiano? Quante ne utilizziamo, senza porci domande? Quanto siamo distanti dalle macchine, quando crediamo di usare le parole da esseri umani consapevoli?
La riflessione sul linguaggio delle macchine va oltre l’aspetto stilistico e diventa un’analisi del linguaggio umano. È un confronto possibile, poiché sono due artefatti comparabili tra loro, almeno dal punto di vista formale: mentre ancora non sappiamo dire quanto l’intelligenza artificiale, al di là della fortunata metafora, sia realmente assimilabile all’intelligenza umana.
I commenti sono chiusi.