Esercizi di stile: quali insegnamenti offre la retorica dell’intelligenza artificiale.

Leggi in app

Esercizi di stile: quali insegnamenti offre la retorica dell'intelligenza artificiale.0 Esercizi di stile: quali insegnamenti offre la retorica dell'intelligenza artificiale. 2

Luciano Floridi 

La meditazione sul linguaggio e sul suo utilizzo è un elemento fondamentale della filosofia. Non solo perché, come affermava Wittgenstein nel Tractatus, “i confini del mio linguaggio sono i confini del mio mondo”; ma anche perché è nel linguaggio che si riflettono dinamiche di potere, pratiche e concezioni. Sebbene l’Essere non risieda nel linguaggio, sicuramente vi si trova l’essere umano, sia come individuo che come collettività.

Il capitale semantico

È ciò che Luciano Floridi definisce “capitale semantico”, ovvero l’insieme di conoscenze, esperienze, valori e significati che gli esseri umani accumulano per interpretare e dare significato alla realtà. Il filosofo italiano, fondatore e direttore dello Yale Center for Digital Ethics e docente di Scienze Cognitive alla Yale University, sarà presente il 17 maggio al Salone del Libro di Torino, dove nella Sala Blu, alle 17:30, terrà una lezione ispirata ai suoi ultimi testi, La differenza fondamentale (Mondadori) e Il nodo etico (Raffaello Cortina).

Per Floridi, il capitale semantico rappresenta un patrimonio personale e collettivo essenziale nell’era dell’IA per differenziarsi dalle macchine, ed è distinto dalla mera informazione poiché arricchito di significato e contesto. Il linguaggio non si identifica direttamente con il capitale semantico, ma ne costituisce una delle forme principali: analizzarne la forma e la struttura, confrontandolo con altri linguaggi, ci aiuta a costruire una consapevolezza di chi siamo e dove ci troviamo. Ci colloca alla fine di un processo storico (o di una catena di rovine, come scriveva Walter Benjamin in Angelus Novus). E forse ci permette di riconoscere segnali che possono anticipare cambiamenti significativi anche in ambiti apparentemente distanti dall’arte e dalla filosofia.

La lista

Sul suo profilo Facebook, Floridi condivide frequentemente frammenti di riflessioni filosofiche. Recentemente, ha pubblicato un’analisi dei testi generati dai Large Language Models, i grandi modelli linguistici che alimentano le più diffuse piattaforme di intelligenza artificiale. L’oggetto immediato dell’analisi è Claude, il chatbot di Anthropic, ma le osservazioni del filosofo si applicano anche ad altri modelli, a partire da . Il suo elenco nasce come un esame stilistico, quindi trascende il funzionamento tecnico di questi sistemi e si concentra su alcune loro peculiarità e manie formali. Tali manie possono essere attenuate o eliminate quasi completamente con istruzioni specifiche: “Sono necessari però prompt più sofisticati, un archivio di file su cui l’LLM si esercita per apprendere lo stile, un altro dove inserire tutte le cose che si desidera implementare o evitare”, ricorda il filosofo. “Un LLM è un’interfaccia verso tutte le informazioni del mondo; se lo utilizzi in modo errato, emergono una serie di luoghi comuni, ma se lo utilizzi correttamente puoi ampliare la conoscenza umana. È lo strumento statistico più avanzato mai creato, su una base dati immensa: è una Ferrari, ma ci sono persone che la usano per andare in prima sull’autostrada”.

Vezzi formali e necessità pratiche

Tuttavia, la maggior parte di chi utilizza l’IA, per pigrizia o mancanza di preparazione, si limita a prompt generici. Da ciò derivano alcuni vezzi che possono essere puramente formali, come l’uso eccessivo del grassetto (“come se il lettore non riuscisse a trovare da solo le parti importanti”), o quella che definisce “elencazione paranoica”, ma anche l’utilizzo del trattino lungo, in inglese “em dash”, che in italiano è praticamente assente.

Altri espedienti sono pratici, servono a guadagnare tempo per elaborare i dati prima di giungere alla risposta finale. Nel linguaggio comune sarebbero frasi sospese, silenzi, intercalari. In quello di un chatbot diventano incipit compiacenti (“Ottima domanda!”, “È un punto davvero affascinante!”, “Assolutamente!”), preamboli superflui, lunghi giri di parole senza arrivare al punto: “Prima di entrare nel merito, cerchiamo di capire…”, “Per rispondere, dobbiamo fare un passo indietro…”. E ancora, “metacommenti gratuiti”, che descrivono la complessità del tema invece di affrontarlo (“Questo è un tema sfumato”, “È una questione complessa senza risposte facili”, “C’è molto da sviscerare qui”). Oppure transizioni stereotipate (“Entriamo nel vivo”, “Svisceriamolo”, “Scomponiamolo”), o rafforzativi vuoti: se nel testo ci sono troppi “davvero”, “veramente”, “incredibilmente”, “notevolmente”, “profondamente”, è quasi certo che si tratta di un prodotto dell’IA. Così come se abbondano le anticipazioni per creare suspense, senza però rivelare subito il punto: “Ecco il punto…”, “Ecco dove diventa interessante…”.

Un ulteriore tratto stilistico tipico dell’IA è la ripetizione di quanto l’utente ha appena detto, una caratteristica dei chatbot fin dal loro lontano antenato Eliza. Progettato nel 1966 per emulare il comportamento di uno psicologo, questo software prende il nome da Eliza Doolittle, personaggio di G. B. Shaw che desidera imparare a esprimersi in modo raffinato. Per farlo, un chatbot ha diversi modi: tra gli altri, utilizzare quella che Floridi definisce “tripletta magica”, aggettivi o sostantivi in gruppi di tre; accumulare sinonimi per generare enfasi vuota; ricorrere a espressioni che denotano finta profondità, come “Tutto sommato”, “Nella sua essenza”, “Fondamentalmente”.

Codardia epistemica

È importante considerare che un LLM è un prodotto commerciale, quindi alcuni degli espedienti retorici che adotta servono a evitare posizioni che potrebbero tradursi in danni di per l’azienda che lo ha creato. Floridi la definisce “codardia epistemica”: non si tratta esattamente di bias, ma di una messa a punto estremamente accurata del tono e del contenuto, in modo che l’artefatto generato dall’IA non possa essere considerato offensivo o discriminatorio per nessuno. A questo scopo servono espressioni come “Ci sono argomenti validi da entrambe le parti”, “Dipende davvero dal contesto”, “Le persone ragionevoli non sono d’accordo”, “Non esiste una risposta valida per tutti”. In generale, tipica degli LLM è una certa cautela, un’attenuazione compulsiva per evitare di esporsi (“Vale la pena notare”, “si potrebbe sostenere”, “in una certa misura”), così come la tendenza ad “ambivalenza forzata, precisazioni non richieste, esaustività ossessiva”. Tuttavia, non sempre questo è sufficiente; gli sforzi dei programmatori e di chi addestra il sistema a volte falliscono e sorgono polemiche: nel 2016, Microsoft fu costretta a chiudere in meno di un giorno Tay, un chatbot su Twitter progettato per conversare in stile giovanile e apprendere dalle interazioni con gli utenti. Lo scorso anno, OpenAI ha dovuto fare marcia indietro su un aggiornamento che rendeva ChatGPT troppo incline a dare ragione all’utente, e più recentemente ha dovuto rivedere lo stile delle risposte della versione 5, criticato dagli utenti per essere troppo asciutto. Senza dimenticare Grok, la piattaforma di intelligenza artificiale di Elon Musk, che ha prodotto e diffuso su X contenuti antisemiti, post offensivi e razzisti, e perfino elogi a Hitler.

Oltre lo specchio

Ma da dove attingono gli LLM i luoghi comuni e gli espedienti retorici che utilizzano? Dagli esseri umani, dal loro linguaggio: libri, post sui social, articoli e blog online, che costituiscono la materia prima su cui questi sistemi vengono addestrati. E, come in uno specchio, la vuota pomposità delle risposte della macchina ci mette di fronte alla proliferazione di espressioni prive di significato nel linguaggio umano. Dopo secoli dedicati a insegnare a retori e persone comuni come abbellire i propri discorsi, l’intelligenza artificiale ha industrializzato il processo. Floridi identifica anche altri vezzi dell’IA: “Pensare positivo, chiudere sempre con una nota edificante o di speranza anche quando non è necessario; riassunto ispirazionale, terminare con una frase generica che suona saggia ma non comunica nulla”. Qui la retorica non è la capacità di scrivere o parlare bene, né l’arte di persuadere in senso nobile, ma diventa l’insieme di strategie che producono un effetto di credibilità. Un LLM genera testo senza fare esperienza, senza rischio, senza una posta in gioco: e proprio per questo tende a produrre quella che Carlo Michelstaedter, filosofo e scrittore goriziano del primo Novecento, definiva “rettorica”, un insieme di strutture che sembrano sostenere un discorso anche quando la comprensione manca o non è verificabile. Quante di queste fanno parte del nostro modo di esprimerci quotidiano? Quante ne utilizziamo, senza porci domande? Quanto siamo distanti dalle macchine, quando crediamo di usare le parole da esseri umani consapevoli?

La riflessione sul linguaggio delle macchine trascende l’aspetto stilistico e diventa un’analisi del linguaggio umano. È un confronto possibile, poiché sono due artefatti comparabili tra loro, almeno dal punto di vista formale: mentre ancora non sappiamo dire quanto l’intelligenza artificiale, al di là della fortunata metafora, sia realmente assimilabile all’intelligenza umana.

I commenti sono chiusi.