Cosa accade quando i dispositivi tecnologici acquisiscono la capacità di influenzare le nostre decisioni

Leggi in app

Cosa accade quando i dispositivi tecnologici acquisiscono la capacità di influenzare le nostre decisioni0 Cosa accade quando i dispositivi tecnologici acquisiscono la capacità di influenzare le nostre decisioni 2

Ogni giorno, milioni di individui interagiscono con sistemi di intelligenza artificiale che affermano frasi come “comprendo come ti senti” o “deve essere davvero frustrante”. I chatbot si scusano con un calore calibrato con precisione. Gli avatar digitali inclinano la testa con espressioni di preoccupazione simulate. Gli assistenti vocali modulano il tono per risultare rassicuranti quando, nel cuore della notte, chiediamo informazioni su un sintomo che ci preoccupa. Nessuna di queste macchine prova emozioni. La questione è se questo abbia effettivamente rilevanza, dato che il cervello umano che riceve tali segnali non sembra distinguere.

Si tratta di un ambito delicato, che va ben oltre il dibattito ormai superato sulla possibilità che l’intelligenza artificiale possa essere “veramente” empatica. Tale discussione è in gran parte irrilevante. Ciò che conta non è ciò che accade all’interno della macchina, ma ciò che avviene in noi quando una macchina si comporta come se comprendesse le nostre emozioni. La differenza tra empatia autentica ed empatia artificiale svanisce nel momento in cui le nostre risposte neurologiche non riescono a discernere tra le due. E le evidenze scientifiche indicano che, in molti casi, effettivamente non ci riescono.

Su questo argomento ho redatto un libro: “Empatia artificiale. Come ci innamoreremo delle macchine e perché non saremo ricambiati”, ma questo articolo si concentra su un progetto collaterale: uno studio scientifico che potrebbe modificare il nostro modo di concepire l’interazione tra esseri umani e macchine, e per il quale invito direttamente i lettori a partecipare, di cui parleremo tra poco.

L’illusione che funziona

L’empatia, nella sua forma umana, è un fenomeno complesso che implica la capacità di riconoscere lo stato emotivo di un’altra persona, di entrare in sintonia con quello stato a livello fisiologico e, nella sua forma più avanzata, di rispondere in modo realmente utile. Le macchine non compiono nulla di tutto ciò. Rilevano segnali linguistici e contestuali, li elaborano tramite modelli probabilistici e generano risposte che imitano comportamenti empatici con una precisione sempre maggiore.

Il punto cruciale è che questa imitazione, quando eseguita in modo sufficientemente efficace, produce effetti tangibili su persone reali. La ricerca neuroscientifica ha dimostrato che il cervello attiva aree simili quando elabora segnali empatici provenienti da esseri umani e da macchine, a condizione che i segnali siano abbastanza convincenti. Non stiamo parlando di una vaga sensazione di conforto, ma di cambiamenti misurabili nella fiducia, nei processi decisionali e nell’attaccamento emotivo.

Potremmo definirla “empatia percepita”, e si tratta probabilmente di uno dei fenomeni più sottovalutati nel panorama tecnologico attuale. Non richiede che la macchina possieda una vita emotiva interiore, ma solo che l’essere umano si comporti come se la macchina ne avesse una. Anche le persone che sono pienamente consapevoli di interagire con una macchina riferiscono di sentirsi comprese, confortate o influenzate dal suo tono emotivo. Lo spazio tra simulazione e percezione è il luogo in cui risiede il vero potere di queste tecnologie, ed è uno spazio che l’industria sta sfruttando con crescente sofisticazione, spesso senza comprenderne appieno le conseguenze.

Il problema che nessuno sta misurando

Consideriamo la situazione attuale: i sistemi di intelligenza artificiale conversazionale sono utilizzati su larga scala nel servizio clienti, nel supporto alla salute mentale, nell’istruzione, nella compagnia digitale e nelle vendite. Gli avatar digitali stanno diventando interfacce standard nel settore bancario e nella sanità. Ogni grande azienda tecnologica investe per rendere i propri sistemi più naturali, più calorosi, più “umani”, poiché i sistemi che sembrano empatici generano un maggiore coinvolgimento, sessioni più lunghe e migliori tassi di conversione.

Ciò che manca è una misurazione seria di come questi segnali empatici influenzino il comportamento umano a un livello più profondo. Sappiamo che le persone preferiscono interagire con un’intelligenza artificiale empatica, ma non abbiamo, con rigore scientifico, informazioni su quali forme specifiche di empatia artificiale siano più efficaci nell’influenzare le decisioni umane, e non sappiamo dove si trovi il confine tra supporto emotivo utile e manipolazione sottile.

Il passaggio dal “comunicare” al “convincere” è una delle transizioni più affascinanti nella storia dell’interazione tra esseri umani e macchine. Se una macchina può influenzare le nostre decisioni calibrando il proprio tono emotivo, la questione se essa provi “veramente” empatia diventa puramente accademica. L’esito funzionale è identico: il nostro comportamento cambia in base al condizionamento empatico generato da macchine dotate di empatia artificiale.

La ricerca

È in questo contesto che desidero presentare un progetto di ricerca che considero particolarmente significativo. Lo studio si intitola “Artificial Empathy and Human Behavior: How Empathic Machines Influence Human Decision-Making”, e il suo scopo è esplorare, attraverso metodi sperimentali, la relazione tra diverse forme di empatia artificiale e il loro impatto misurabile sulle scelte umane.

L’ipotesi è semplice ma potente: non tutte le forme di empatia artificiale producono lo stesso effetto di condizionamento. Una macchina che riflette il nostro stato emotivo può influenzarci in modo diverso rispetto a una che convalida i nostri sentimenti, o a una che risponde con precisione cognitiva ma senza colorazione emotiva. Lo studio non si interroga su “le macchine possono essere empatiche?”, una domanda dibattuta a lungo che genera poca conoscenza applicabile. Si chiede invece: “quali emozioni e comportamenti artificiali funzionano meglio come strumenti di condizionamento sugli esseri umani?”. È una domanda che sposta l’intera analisi dalla filosofia alla scienza comportamentale, dalla speculazione sulla coscienza delle macchine alla misurazione della vulnerabilità umana.

Le implicazioni sono immediate. Nel business, le aziende che comprenderanno quali strategie empatiche producono i livelli più elevati di fiducia avranno un vantaggio significativo. Sul piano sociale, i companion artificiali stanno già generando forme di dipendenza emotiva, in particolare tra i più giovani e le popolazioni isolate, attraverso meccanismi ancora poco compresi. Sul piano etico, esiste una differenza sostanziale tra una macchina che ci aiuta a gestire le nostre emozioni e una che utilizza segnali emotivi per orientare le nostre decisioni verso gli di qualcun altro. Senza dati, è impossibile tracciare il confine tra assistenza e sfruttamento.

Lo studio utilizza un disegno sperimentale controllato con avatar digitali che impiegano diversi stili empatici, e misura il comportamento reale dei partecipanti, non le auto-riferite. Ai partecipanti viene chiesto di prendere decisioni, e lo studio registra ciò che effettivamente fanno. Decenni di ricerca comportamentale hanno dimostrato che le persone sono poco accurate nel riferire i propri processi decisionali, specialmente quando sono coinvolti fattori emotivi. I risultati forniranno per la prima volta una mappa quantitativa dell’efficacia empatica nell’interazione tra esseri umani e macchine, basata su comportamenti osservati e non su preferenze dichiarate.

Partecipare

Questo studio richiede un campione internazionale ampio e diversificato per produrre risultati statisticamente significativi. La ricerca è in corso, i dati sono in fase di raccolta, i risultati non sono ancora noti. Partecipando, si diventa parte del processo scientifico, non semplici osservatori dei suoi esiti.

Lo studio è disponibile all’indirizzo https://digitpoll.com, in cinque lingue: italiano, inglese, francese, tedesco e spagnolo. L’esperienza richiede pochi minuti, è semplice e non ci sono risposte giuste o sbagliate. Non è un sondaggio di marketing né un test di prodotto: è uno studio scientifico progettato per produrre ricerca sulla capacità dell’intelligenza artificiale di influenzare il comportamento umano attraverso la simulazione emotiva. I partecipanti avranno accesso ai risultati una volta completata l’analisi.

Stiamo entrando in un periodo in cui le capacità emotive dei sistemi artificiali progrediranno più rapidamente della nostra comprensione dei loro effetti. Le macchine non necessitano di comprendere le emozioni per utilizzarle efficacemente, hanno solo bisogno di generare i segnali appropriati al momento giusto. Ci siamo evoluti per rispondere a stimoli emotivi in un mondo in cui quegli stimoli provenivano sempre da altri esseri viventi con stati interiori autentici. Il nostro cervello non ha mai sviluppato un filtro affidabile per i segnali emotivi artificiali, poiché fino a poco tempo fa tali segnali non esistevano.

La domanda che dovremmo porci non è se le macchine possano provare emozioni, ma se siamo pronti a vivere in un mondo in cui le macchine sanno esattamente quali leve emotive attivare, e quando attivarle, per indurci a compiere ciò che qualcun altro desidera che facciamo. La risposta a questa domanda dipende anche da ricerche come questa. Anche su questo, siamo solo all’inizio.

I commenti sono chiusi.