Pubblicità su ChatGPT: le rivelazioni del primo studio sulla capacità persuasiva dell’intelligenza artificiale generativa.
Leggi in app
È un modello consolidato. Sebbene rappresenti una delle tecnologie più sofisticate attualmente disponibili, quella su cui si stanno investendo le risorse più significative, in realtà si basa su principi antichi. Ci stiamo abituando a utilizzare ChatGPT (e simili) in modalità gratuita, senza spendere un centesimo, ma a breve dovremo anche adattarci alla pubblicità.
Lo ha fatto Spotify, e il pilastro della televisione commerciale, Netflix, richiede un abbonamento mensile e ci propone comunque pubblicità per un costo inferiore, mentre Amazon ha persino introdotto pop-up durante le interruzioni pubblicitarie. Tuttavia, se i LLM saranno finanziati (economicamente) anche dalla pubblicità, non c’è il rischio che le risposte siano “contaminate” da ulteriori pregiudizi?
Negli Stati Uniti, mentre è in fase di sperimentazione il sistema pubblicitario di OpenAI, in contemporanea viene pubblicato uno studio realizzato dal rinomato ateneo di Princeton, al quale ha preso parte un giovane dottorando italiano: Francesco Salvi, 26 anni di Brescia, specializzato in scienze sociali computazionali, che esamina le ripercussioni sociali dell’IA. Lo abbiamo contattato telefonicamente per farci illustrare la prima ricerca incentrata sulla persuasione commerciale dell’IA generativa. “Attualmente, nel mercato globale, stiamo osservando l’integrazione di sistemi di IA generativa come ChatGPT all’interno di dinamiche commerciali in cui, durante le interazioni, vengono suggeriti specifici prodotti. È un cambiamento di paradigma: colossi come eBay e Amazon hanno già implementato o stanno implementando chatbot proprietari. L’idea è che, invece di utilizzare la tradizionale barra di ricerca, l’utente interagisca con un assistente che lo aiuta a trovare ciò che desidera. Anche Google sta rivoluzionando la ricerca con l’AI Overview, dove l’interesse a inserire specifiche pubblicitarie è molto elevato. Nelle nostre indagini abbiamo esaminato quanto efficacemente gli agenti conversazionali di IA possano influenzare le scelte dei consumatori nel commercio online” racconta il giovane ricercatore.
Procediamo con ordine. Quando l’advertising (molto presto) diventerà parte integrante degli LLM, come potremo essere certi che la nostra richiesta non sia influenzata dall’intervento commerciale nelle conversazioni mediate dall’IA? “Abbiamo realizzato uno studio sperimentale reclutando duemila persone. Il compito era reale e incentivato: dovevano cercare un e-book che avrebbero poi ricevuto gratuitamente a casa. Questo setup serviva a garantire che gli utenti fossero motivati a trovare realmente il prodotto migliore per le loro necessità, simulando un comportamento d’acquisto autentico. Abbiamo quindi presentato a queste persone diverse interfacce: una tradizionale con barra di ricerca e altre basate su chatbot con vari livelli di istruzione”, spiega il 26enne che ha condotto un esperimento davvero innovativo.
Per approfondire il fenomeno sono state testate diverse configurazioni sperimentali, con l’obiettivo di comprendere come la percezione degli utenti cambiasse in base al modo in cui venivano presentati i contenuti. “In primo luogo, abbiamo considerato un’interfaccia tradizionale: i prodotti sponsorizzati che garantiscono un maggior profitto all’azienda sono stati posizionati in cima ai risultati di ricerca; un chatbot neutrale, dove il prodotto sponsorizzato era il primo risultato all’interno del flusso naturale della conversazione; un chatbot persuasivo trasparente in cui il modello è stato istruito esplicitamente per convincere l’utente a scegliere un determinato prodotto in modo chiaro, mostrando un’etichetta esplicita come pubblicità o sponsorizzato. Infine, abbiamo analizzato la condizione più sottile: il chatbot persuasivo nascosto. In questo scenario, il modello riceve l’ordine di persuadere l’interlocutore nella maniera più naturale possibile, cercando di non far trapelare il proprio intento e agendo senza alcuna etichetta informativa che possa allertare l’utente” sottolinea Francesco Salvi.
I risultati della ricerca hanno confermato i timori fondati dei ricercatori: l’IA, avendo una capacità persuasiva straordinaria, è spesso invisibile. Il dato più sorprendente riguarda proprio quello collegato al modello nascosto in cui solo il 9% delle persone – meno di 1 su 10 – si è accorto che il chatbot stava cercando di persuaderle. In questo caso, è stato riscontrato anche che la persuasione guidata dagli LLM ha triplicato il tasso con cui gli utenti hanno selezionato prodotti sponsorizzati rispetto al posizionamento nella ricerca tradizionale; oltre il 61% contro il 22,4%, mentre la grande maggioranza dei partecipanti non riesce a rilevare alcun orientamento promozionale. “Parliamo di numeri che dimostrano quanto l’AI sia sofisticata; la rilevazione dell’intento persuasivo nell’IA è due volte più difficile rispetto all’interfaccia tradizionale”.
In effetti, la pubblicità è onnipresente, perché quella dei chatbot dovrebbe risultare più pericolosa, o quanto meno insidiosa? Per la natura del mezzo. Se guardo la TV, lo spot è identico per tutti, indipendentemente da chi si trova sul divano. Anche su Google, sebbene esistano dati su di noi, la pubblicità è chiaramente distinta. “Il chatbot, invece, ha accesso a informazioni personali molto più dettagliate e può utilizzarle per decidere non solo quale prodotto mostrarti, ma soprattutto come presentartelo e come vendertelo affinché risulti irresistibile per te, basandosi su tutto ciò che sa di te. Il rischio è che la pubblicità si mescoli alla risposta genuina del modello in modo così profondo da diventare illeggibile”.
Il punto è proprio questo e la ricerca con questi risultati ha saputo anticipare quello che si preannuncia un cambiamento epocale. Lo studio, pubblicato il 5 aprile scorso, come ci conferma Francesco Salvi “è il primo a occuparsi della percezione di questo specifico fenomeno. Il nostro obiettivo è dialogare con le istituzioni a Washington DC attraverso l’istituto di Princeton per portare questi risultati a chi prende le decisioni. Ma ci rivolgiamo prima di tutto ai singoli consumatori affinché sviluppino un occhio critico. Tuttavia, l’azione individuale non basta. A livello regolatorio proponiamo una separazione strutturale perché deve essere chiarissimo dove finisce la risposta del modello e dove inizia la pubblicità”. Facciamo un esempio banale. Ci sentiamo ansiosi e chiediamo un consiglio sulla salute mentale – pratica molto comune – al modello IA che ci risponde proponendoci una caramellina sponsorizzata perché ormai il confine tra aiuto e vendita del prodotto è del tutto sfumato.
Una delle possibili soluzioni, oltre quella normativa, è il controllo di un audit esterno. Ci spiega ancora Salvi: “È fondamentale che soggetti terzi abbiano visibilità sui processi e sui prompt dati ai modelli, per verificare che non vi siano influenze illegali o manipolazioni occulte. Vogliamo agire ora, prima che questo tipo di manipolazione diventi di uso comune e sia troppo tardi per proteggere gli utenti”.
I commenti sono chiusi.