Cosa accade quando i dispositivi apprendono a condizionare le nostre scelte
Leggi in app
Ogni giorno, milioni di individui interagiscono con sistemi di intelligenza artificiale che affermano frasi come “comprendo come ti senti” o “deve essere davvero frustrante”. I chatbot si scusano con un calore calibrato con precisione. Gli avatar digitali inclinano la testa mostrando espressioni di preoccupazione simulata. Gli assistenti vocali modulano il tono per risultare rassicuranti quando, nel cuore della notte, chiediamo informazioni su un sintomo che ci preoccupa. Nessuna di queste macchine prova emozioni. La questione è se questo abbia realmente rilevanza, dato che il cervello umano che riceve tali segnali non sembra fare alcuna distinzione.
Si tratta di un ambito delicato, che va ben oltre il dibattito ormai superato sulla possibilità che l’intelligenza artificiale possa essere “veramente” empatica. Tale discussione è in gran parte irrilevante. Ciò che conta non è ciò che avviene all’interno della macchina, ma ciò che accade in noi quando una macchina si comporta come se comprendesse le nostre emozioni. La differenza tra empatia autentica ed empatia artificiale svanisce nel momento in cui le nostre risposte neurologiche non riescono a distinguere tra le due. E le evidenze scientifiche indicano che, in molti casi, effettivamente non ci riescono.
Su questo argomento ho redatto un libro: “Empatia artificiale. Come ci innamoreremo delle macchine e perché non saremo ricambiati”, ma questo articolo si concentra su un progetto collaterale: uno studio scientifico che potrebbe modificare il nostro modo di concepire l’interazione tra esseri umani e macchine, e per il quale invito direttamente i lettori a partecipare, di cui parleremo a breve.
L’illusione che funziona
L’empatia, nella sua forma umana, è un fenomeno complesso che implica la capacità di riconoscere lo stato emotivo di un’altra persona, di entrare in risonanza con tale stato a livello fisiologico e, nella sua forma più avanzata, di rispondere in modo realmente utile. Le macchine non compiono nulla di tutto ciò. Rilevano segnali linguistici e contestuali, li elaborano tramite modelli probabilistici e generano risposte che imitano comportamenti empatici con una precisione sempre maggiore.
Il punto cruciale è che questa imitazione, quando è realizzata in modo sufficientemente efficace, produce effetti tangibili su persone reali. La ricerca neuroscientifica ha dimostrato che il cervello attiva aree simili quando elabora segnali empatici provenienti da esseri umani e da macchine, a condizione che i segnali siano abbastanza convincenti. Non stiamo parlando di una semplice sensazione di conforto, ma di cambiamenti misurabili nella fiducia, nei processi decisionali e nell’attaccamento emotivo.
Potremmo definirla “empatia percepita”, e si tratta probabilmente di uno dei fenomeni più sottovalutati nel panorama tecnologico attuale. Non è necessario che la macchina possieda una vita emotiva interiore, è sufficiente che l’essere umano si comporti come se la macchina ne avesse una. Anche le persone che sono perfettamente consapevoli di interagire con una macchina riferiscono di sentirsi comprese, confortate o influenzate dal suo tono emotivo. Lo spazio tra simulazione e percezione è il luogo in cui risiede il vero potere di queste tecnologie, ed è uno spazio che l’industria sta sfruttando con crescente sofisticazione, spesso senza comprenderne appieno le conseguenze.
Il problema che nessuno sta misurando
Proviamo a riflettere sulla situazione attuale: i sistemi di intelligenza artificiale conversazionale sono utilizzati su larga scala nel servizio clienti, nel supporto alla salute mentale, nell’istruzione, nella compagnia digitale e nelle vendite. Gli avatar digitali stanno diventando interfacce standard nel settore bancario e nella sanità. Ogni grande azienda tecnologica investe per rendere i propri sistemi più naturali, più calorosi, più “umani”, poiché i sistemi che sembrano empatici generano un maggiore coinvolgimento, sessioni più lunghe e migliori tassi di conversione.
Ciò che manca è una misurazione seria di come questi segnali empatici influenzino il comportamento umano a un livello più profondo. Sappiamo che le persone preferiscono interagire con un’intelligenza artificiale empatica, ma non abbiamo, con rigore scientifico, informazioni su quali forme specifiche di empatia artificiale siano più efficaci nell’influenzare le decisioni umane, e non sappiamo dove si trovi il confine tra supporto emotivo utile e manipolazione sottile.
Il passaggio dal “comunicare” al “convincere” rappresenta una delle transizioni più affascinanti nella storia dell’interazione tra esseri umani e macchine. Se una macchina può influenzare le nostre decisioni calibrando il proprio tono emotivo, la questione se essa provi “veramente” empatia diventa puramente accademica. L’esito funzionale è identico: il nostro comportamento cambia in base al condizionamento empatico generato da macchine dotate di empatia artificiale.
La ricerca
È in questo contesto che desidero presentare un progetto di ricerca che considero particolarmente significativo. Lo studio si intitola “Artificial Empathy and Human Behavior: How Empathic Machines Influence Human Decision-Making”, e il suo scopo è esplorare, attraverso metodi sperimentali, la relazione tra diverse forme di empatia artificiale e il loro impatto misurabile sulle scelte umane.
L’ipotesi è semplice ma potente: non tutte le forme di empatia artificiale producono lo stesso effetto di condizionamento. Una macchina che riflette il nostro stato emotivo può influenzarci in modo diverso rispetto a una che convalida i nostri sentimenti, o a una che risponde con precisione cognitiva ma senza colorazione emotiva. Lo studio non si interroga su “le macchine possono essere empatiche?”, una domanda dibattuta a lungo che genera poca conoscenza utilizzabile. Si chiede invece: “quali emozioni e comportamenti artificiali funzionano meglio come strumenti di condizionamento sugli esseri umani?”. È una domanda che sposta l’intera analisi dalla filosofia alla scienza comportamentale, dalla speculazione sulla coscienza delle macchine alla misurazione della vulnerabilità umana.
Le implicazioni sono immediate. Nel business, le aziende che comprenderanno quali strategie empatiche producono i livelli più elevati di fiducia avranno un vantaggio significativo. Sul piano sociale, i companion artificiali stanno già generando forme di dipendenza emotiva, in particolare tra i più giovani e le popolazioni isolate, attraverso meccanismi ancora poco compresi. Sul piano etico, esiste una differenza sostanziale tra una macchina che ci aiuta a gestire le nostre emozioni e una che utilizza segnali emotivi per indirizzare le nostre decisioni verso gli interessi di qualcun altro. Senza dati, è impossibile tracciare il confine tra assistenza e sfruttamento.
Lo studio utilizza un disegno sperimentale controllato con avatar digitali che impiegano diversi stili empatici, e misura il comportamento effettivo dei partecipanti, non gli atteggiamenti auto-riferiti. Ai partecipanti viene chiesto di prendere decisioni, e lo studio registra ciò che realmente fanno. Decenni di ricerca comportamentale hanno dimostrato che le persone sono poco accurate nel riferire i propri processi decisionali, specialmente quando sono coinvolti fattori emotivi. I risultati forniranno per la prima volta una mappa quantitativa dell’efficacia empatica nell’interazione tra esseri umani e macchine, basata su comportamenti osservati e non su preferenze dichiarate.
Partecipare
Questo studio richiede un campione internazionale ampio e diversificato per produrre risultati statisticamente significativi. La ricerca è in corso, i dati sono in fase di raccolta, i risultati non sono ancora noti. Partecipando, si diventa parte del processo scientifico, non semplici osservatori dei suoi esiti.
Lo studio è disponibile all’indirizzo https://digitpoll.com, in cinque lingue: italiano, inglese, francese, tedesco e spagnolo. L’esperienza richiede pochi minuti, è semplice e non ci sono risposte giuste o sbagliate. Non è un sondaggio di marketing né un test di prodotto: è uno studio scientifico progettato per produrre ricerca sulla capacità dell’intelligenza artificiale di influenzare il comportamento umano attraverso la simulazione emotiva. I partecipanti avranno accesso ai risultati una volta completata l’analisi.
Stiamo entrando in un periodo in cui le capacità emotive dei sistemi artificiali progrediranno più rapidamente della nostra comprensione dei loro effetti. Le macchine non necessitano di comprendere le emozioni per utilizzarle efficacemente, hanno solo bisogno di generare i segnali giusti al momento opportuno. Ci siamo evoluti per rispondere a stimoli emotivi in un mondo in cui tali stimoli provenivano sempre da altri esseri viventi con stati interiori autentici. Il nostro cervello non ha mai sviluppato un filtro affidabile per i segnali emotivi artificiali, poiché fino a poco tempo fa tali segnali non esistevano.
La domanda che dovremmo porci non è se le macchine possano provare emozioni, ma se siamo pronti a vivere in un mondo in cui le macchine sanno esattamente quali leve emotive attivare, e quando attivarle, per indurci a compiere ciò che qualcuno desidera che facciamo. La risposta a questa domanda dipende anche da ricerche come questa. Anche su questo, siamo solo all’inizio.
I commenti sono chiusi.