Che cos’è il monitoraggio delle emozioni sul posto di lavoro e quali sono le sue implicazioni preoccupanti?

Leggi in app

Che cos'è il monitoraggio delle emozioni sul posto di lavoro e quali sono le sue implicazioni preoccupanti?0 Che cos'è il monitoraggio delle emozioni sul posto di lavoro e quali sono le sue implicazioni preoccupanti? 2

Gli algoritmi che analizzano la produttività dei dipendenti rappresentano una realtà contemporanea che genera discussioni sociali e politiche. La diffusione dell’intelligenza artificiale affettiva (emotion IA), parte integrante del più ampio campo dell’affective computing, si basa su teorie scientifiche controverse e, oltre a perpetuare pregiudizi algoritmici, solleva interrogativi etici che riguardano in particolare l’autonomia personale e la privacy dei lavoratori.

In Europa le emotion IA sono vietate, mentre negli Stati Uniti il tema sta emergendo con crescente intensità, come evidenziato da un articolo pubblicato su The Atlantic, simile a una nuova forma di sorveglianza digitale che trasforma la sfera emotiva in un parametro aziendale, spingendo i lavoratori a esprimere sentimenti positivi anche quando non corrispondono al loro stato d’animo reale.

Inoltre, nonostante numerosi studi, non esistono ancora evidenze scientifiche che attestino l’affidabilità delle emotion IA e, nonostante ciò, sembrano portare con sé i più comuni pregiudizi derivanti dai dati utilizzati per il loro addestramento.

Cosa sono le emotion IA

Le intelligenze artificiali e gli algoritmi utilizzati per rilevare e quantificare le emozioni vengono definiti “emotion IA”, con l’obiettivo di classificare il comportamento umano.

Questi strumenti comprendono software, hardware e algoritmi che fungono da collegamento tra il deep learning (uno dei fondamenti delle IA) e la computer vision, capaci di leggere e interpretare espressioni facciali, gesti, contenuto dei messaggi scritti e il tono della voce.

A queste informazioni possono essere aggiunti dati sulla frequenza cardiaca o sul ritmo respiratorio, raccolti tramite dispositivi indossabili (non solo braccialetti).

Le applicazioni attuali

Il mercato delle emotion IA è attivo e in espansione. L’azienda toscana Cynny S.p.A. ha creato strumenti ora integrati nell’americana MorphCast Inc., che offre un’applicazione IA per l’interpretazione delle emozioni umane, già utilizzata da McDonald’s in Portogallo per fornire coupon ai clienti in base al loro stato d’animo.

In aggiunta, attraverso una piattaforma dedicata, fornisce strumenti per misurare il livello di attenzione nelle scuole.

Framery, un’azienda finlandese, offre cabine insonorizzate per uffici, nei cui sedili ha installato sensori in grado di raccogliere parametri fisiologici come battito cardiaco, frequenza respiratoria e livello di stress.

Il colosso assicurativo MetLife, con sede a New York e operante anche in Europa, utilizza strumenti di emotion IA per monitorare le performance dei propri dipendenti, analizzando l’altezza e il tono della loro voce per valutare se il loro comportamento sia appropriato.

Patty è una chatbot IA integrata nelle cuffie dei dipendenti di Burger King, progettata per valutare la cortesia durante le interazioni con i clienti. Le piattaforme di collaborazione online come Slack e Zoom stanno introducendo integrazioni ed estensioni che monitorano i messaggi, identificando la positività o la tossicità dei partecipanti alle riunioni.

Questi elementi rappresentano diversi aspetti di una sorveglianza che le aziende attuano nel tentativo di quantificare caratteristiche come la gentilezza e l’empatia, qualità che, per loro natura, sono difficilmente traducibili in dati elaborati da algoritmi.

Quanto sono accurate le emotion IA?

Lisa Feldman Barrett, neuroscienziata e professoressa alla Northeastern University di Boston, nota per mettere in discussione le basi scientifiche su cui si fondano molte delle emotion IA.

Secondo la neuroscienziata, le emozioni non sono universalmente riconoscibili e interpretabili. Barrett non contesta l’esistenza delle intelligenze artificiali, ma nutre scarsa fiducia nella loro capacità di leggere e interpretare correttamente le emozioni.

Altri studi suggeriscono cautela nell’uso di etichette emotive rigide, evidenziando che le espressioni facciali sono segnali sociali intenzionali e non possono essere interpretati da una macchina, un argomento approfondito dallo psicologo clinico Alan J. Fridlund.

Le numerose ricerche disponibili convergono nella stessa direzione, dimostrando come le emozioni si manifestino in modo variabile tra individui e contesti diversi e, in modo ancora più sottile, escludendo che le espressioni possano essere paragonate a impronte digitali delle emozioni.

Coloro che mettono in discussione l’efficacia delle emotion IA sostengono che è impossibile dedurre in modo affidabile sentimenti come la rabbia o la felicità. Inoltre, un tema ricorrente quando si discute di intelligenze artificiali è che i pregiudizi tendono a prevalere. Una ricerca condotta dall’Università del Maryland ha rivelato che i software per il riconoscimento delle emozioni valutano i giocatori afroamericani della NBA – la National Basketball Association – come più arrabbiati rispetto ai giocatori caucasici, anche quando sorridono.

Le questioni etiche

L’etica solleva preoccupazioni relative alla dignità umana e alla giustizia sociale, poiché queste tecnologie operano spesso senza il consenso esplicito degli interessati.

Oltre a non essere scientificamente riconosciute come valide, le emotion IA si fondano su teorie ritenute semplicistiche perché non considerano i significati relazionali e contestuali delle espressioni facciali e corporee.

Si potrebbe obiettare che le emotion IA forniscono quadri completi solo incrociando i messaggi non verbali (espressioni e gesti) con i messaggi verbali come la voce e il testo scritto. Sebbene questa idea sia ragionevole, questo approccio incrociato di dati ha poco valore se alla base ci sono pregiudizi sistemici.

Infine, una sorveglianza così intima può costringere i lavoratori a simulare stati emotivi per evitare conseguenze economiche o professionali. In un contesto simile, il monitoraggio costante rischia di minare l’autonomia individuale, trasformando la piacevolezza (o il carattere) in un parametro di produttività misurato da algoritmi la cui affidabilità è ancora oggetto di dibattito.

Le questioni normative

Mentre negli Stati Uniti le emotion IA stanno guadagnando popolarità, nel Vecchio Continente sono sotto scrutinio, se non completamente vietate.

L’AI Act europeo proibisce l’uso di queste IA negli ambienti professionali e scolastici, ma non le esclude a priori per usi commerciali. A conferma di ciò, si può citare la distribuzione di coupon attuata da McDonald’s in Portogallo, dove il consumatore deve fornire il proprio consenso (come richiesto dal GDPR) per attivare la fotocamera dello smartphone affinché l’app possa dedurre il suo stato emotivo. Le tecniche rivolte ai consumatori non contraddicono l’AI Act e rimangono soggette alle normative del GDPR e ai controllori regolatori.

L’AI Act, che vieta l’uso di sistemi di riconoscimento delle emozioni nei contesti lavorativi e scolastici, prevede anche delle eccezioni per motivi medici o di sicurezza, ma pone al centro i diritti fondamentali degli individui.

I commenti sono chiusi.