La sorveglianza delle emozioni nei luoghi di lavoro e le sue implicazioni preoccupanti.

Leggi in app

La sorveglianza delle emozioni nei luoghi di lavoro e le sue implicazioni preoccupanti.0 La sorveglianza delle emozioni nei luoghi di lavoro e le sue implicazioni preoccupanti. 2

Gli algoritmi che analizzano la produttività dei dipendenti rappresentano una realtà contemporanea che genera discussioni sociali e politiche. La diffusione dell’intelligenza artificiale affettiva (emotion IA), parte integrante del più ampio campo dell’affective computing, si basa su teorie scientifiche controverse e, oltre a perpetuare pregiudizi algoritmici, solleva questioni etiche che riguardano principalmente l’autonomia personale e la riservatezza dei lavoratori.

In Europa, le emotion IA sono vietate, mentre negli Stati Uniti il tema sta emergendo con crescente rilevanza, come evidenziato da un articolo pubblicato su The Atlantic, simile a una nuova forma di sorveglianza digitale che trasforma la sfera emotiva in un parametro aziendale, spingendo i lavoratori a mostrare sentimenti positivi anche quando non corrispondono al loro stato d’animo reale.

Inoltre, nonostante i numerosi studi, non esistono ancora evidenze scientifiche che attestino l’affidabilità delle emotion IA e, nonostante ciò, sembrano portare con sé i più tradizionali pregiudizi derivanti dai dati utilizzati per il loro addestramento.

Cosa sono le emotion IA

Le “emotion IA” si riferiscono a intelligenze artificiali e algoritmi impiegati per rilevare e quantificare le emozioni al fine di classificare il comportamento umano.

Questi strumenti, che comprendono software, hardware e algoritmi, fungono da collegamento tra il deep learning (uno dei fondamenti delle IA) e la computer vision, capaci di leggere e interpretare espressioni facciali, gesti, contenuto dei messaggi scritti e il tono della voce.

A queste informazioni possono essere aggiunti dati sulla frequenza cardiaca o sul ritmo respiratorio, raccolti tramite dispositivi indossabili (non solo braccialetti).

Le applicazioni attuali

Il mercato delle emotion IA è attivo e in espansione. L’azienda toscana Cynny S.p.A. ha creato strumenti ora confluiti nell’americana MorphCast Inc., che offre un’applicazione IA per l’interpretazione delle emozioni umane, già utilizzata da McDonald’s in Portogallo per fornire coupon ai clienti in base al loro umore.

In aggiunta, attraverso una piattaforma dedicata, fornisce strumenti per misurare il livello di attenzione nelle scuole.

Framery è un’azienda finlandese che offre cabine insonorizzate per uffici, dotate di sensori in grado di raccogliere parametri fisiologici come battito cardiaco, frequenza respiratoria e livello di stress.

Il colosso assicurativo MetLife, con sede a New York e operante anche in Europa, utilizza strumenti di emotion IA per monitorare le performance dei propri dipendenti, analizzando l’altezza e il tono della loro voce per valutare se il loro comportamento sia appropriato.

Patty è una chatbot IA integrata nelle cuffie dei dipendenti di Burger King, progettata per valutare la loro cortesia durante le interazioni con i clienti. Le piattaforme di collaborazione online Slack e Zoom stanno introducendo integrazioni ed estensioni che monitorano i messaggi, identificando la positività o la tossicità dei partecipanti alle riunioni.

Questi elementi rappresentano diversi aspetti di una sorveglianza che le aziende esercitano nel tentativo di quantificare caratteristiche come la cortesia e l’empatia, che per loro natura sono qualità difficilmente traducibili in dati elaborabili da algoritmi.

Quanto sono accurate le emotion IA?

Lisa Feldman Barrett, neuroscienziata e docente alla Northeastern University di Boston, nota per mettere in discussione le basi scientifiche su cui si fonda gran parte delle emotion IA.

Secondo la neuroscienziata, le emozioni non sono universalmente riconoscibili e interpretabili. Barrett non contesta le intelligenze artificiali in sé, ma nutre scarsa fiducia nella loro capacità di leggere e interpretare correttamente le emozioni.

Altri studi suggeriscono prudenza nell’uso di etichette emotive rigide, evidenziando che le espressioni facciali sono segnali sociali intenzionali e non sono interpretabili da una macchina, un argomento approfondito dallo psicologo clinico Alan J. Fridlund.

I numerosi studi disponibili convergono nella stessa direzione, dimostrando come le emozioni si manifestino in modi variabili tra individui e contesti diversi e, in modo ancora più sottile, escludendo che le espressioni possano essere paragonate a impronte digitali delle emozioni.

Coloro che mettono in discussione l’efficacia delle emotion IA sostengono che è impossibile dedurre in modo affidabile sentimenti come la rabbia o la felicità. Inoltre, un tema ricorrente quando si discute di intelligenze artificiali è che i pregiudizi tendono a prevalere. Una ricerca condotta dall’Università del Maryland ha rivelato che i software per il riconoscimento delle emozioni giudicano i giocatori afroamericani della NBA – la National Basketball Association – come più arrabbiati rispetto ai giocatori caucasici, anche quando sorridono.

Le questioni etiche

Le questioni etiche sollevano preoccupazioni relative alla dignità umana e persino alla giustizia sociale, poiché queste tecnologie operano spesso senza il consenso esplicito degli interessati.

Oltre a non essere scientificamente riconosciute come valide, le emotion IA si basano su teorie considerate semplicistiche, poiché non considerano i significati relazionali e contestuali delle espressioni facciali e corporee.

Si potrebbe obiettare che le emotion IA forniscono rappresentazioni complete solo incrociando i messaggi non verbali (espressioni e gesti) con i messaggi verbali come la voce e il testo scritto. Sebbene ragionevole, questo approccio incrociato di dati ha poco valore se alla base ci sono pregiudizi sistemici.

Infine, una sorveglianza così intima può costringere i lavoratori a simulare stati emotivi per evitare ostacoli economici o di carriera. In un contesto simile, il monitoraggio costante rischia di compromettere l’autonomia individuale, trasformando la piacevolezza (o il carattere) in un parametro di produttività misurato da algoritmi la cui affidabilità è ancora oggetto di dibattito.

Le questioni normative

Mentre negli Stati Uniti le emotion IA stanno guadagnando popolarità, nel Vecchio Continente sono sotto scrutinio, se non completamente vietate.

L’AI Act europeo proibisce l’uso di queste IA in ambienti professionali e scolastici, ma non le esclude a priori per usi commerciali. A dimostrazione di ciò, si può citare la distribuzione di coupon attuata da McDonald’s in Portogallo, dove il consumatore deve fornire il proprio consenso (come richiesto dal GDPR) per attivare la fotocamera dello smartphone affinché l’app possa dedurre il suo stato emotivo. Le tecniche rivolte ai consumatori non contraddicono l’AI Act e rimangono soggette alle normative del GDPR e ai controllori regolatori.

L’AI Act, che vieta l’uso di sistemi di riconoscimento delle emozioni nei contesti lavorativi e scolastici, prevede anche eccezioni per motivi medici o di sicurezza, ma pone al centro i diritti fondamentali degli individui.

I commenti sono chiusi.