Donne: i pregiudizi latenti nelle applicazioni, nei telefoni e nell’intelligenza artificiale

Donne: i pregiudizi latenti nelle applicazioni, nei telefoni e nell'intelligenza artificiale 1

Dalle medicine ai crash test delle automobili, il nostro ambiente non è ancora completamente inclusivo per le donne. Non del tutto, almeno. Questo fenomeno si verifica anche nel digitale, a partire dai testi di molte piattaforme, che utilizzano il maschile sovraesteso, e dalle icone delle interfacce, che mostrano di default caratteristiche maschili, in alcuni casi non modificabili.

“Un esempio noto riguarda le applicazioni per il monitoraggio del ciclo mestruale, che spesso vengono progettate con una grafica stereotipata, in cui predominano colori rosa ed emoji. Un approccio che rischia di ridurre a banalità uno strumento di salute fondamentale”, afferma Maria Teresa Stella, senior user experience designer, che l’8 marzo 2026, in occasione della Giornata internazionale della donna, discuterà di questi argomenti nell’incontro La tecnologia non è neutra, al delle scienze (Muse) di .

Le app

Le distorsioni presenti nel design digitale si confermano nelle scelte di progettazione. Un esempio è AirDrop, la funzione di iPhone, iPad e Mac che consente di individuare i dispositivi nelle vicinanze tramite bluetooth per poi inviare foto, video o documenti attraverso wi-fi. Proprio a causa di servizi come questo, in molti Paesi si stanno registrando un aumento dei casi di cyberflashing: uomini che inviano immagini sessuali a sconosciute nei dintorni sfruttando la condivisione automatica. Un’indagine condotta nel Regno Unito dall’Office of communications (Ofcom) ha rivelato che oltre il 40% delle donne sotto i 35 anni ha ricevuto contenuti indesiderati.

Esiste poi la questione della sicurezza, spesso trascurata. Strava, ad esempio, è una piattaforma sportiva che permette di registrare e condividere attività fisiche, come corsa o ciclismo, tramite Gps: in questo modo i percorsi salvati dagli utenti possono rivelare i luoghi frequentati abitualmente, esponendo in particolare le donne a stalking e molestie. Un problema simile riguarda anche alcune funzionalità di Telegram.

Smartphone e dispositivi

Anche nel campo dell’hardware emergono squilibri. Diversi studi di ergonomia hanno, infatti, dimostrato che gli smartphone sono progettati tenendo conto delle dimensioni medie di una mano maschile: ciò implica che le donne, avendo mani più piccole, affrontano maggiori difficoltà nell’utilizzo dei telefoni con una sola mano.

I pregiudizi diventano ancora più evidenti con gli assistenti vocali, come Siri, Alexa e Cortana, che utilizzano una voce femminile come impostazione predefinita, perpetuando l’idea della donna servizievole e disponibile ad aiutare. “In questo caso, emerge anche un paradosso”, afferma l’esperta, “perché molti di questi strumenti, essendo stati addestrati su voci maschili, risultano meno precisi nel riconoscere quelle femminili”. A conferma di ciò, una ricerca pubblicata nel 2019 su Harvard Business Review ha evidenziato che la tecnologia vocale di Google è il 13% più accurata con voci maschili rispetto a quelle femminili.

Intelligenza artificiale

La tendenza a perpetuare gli stereotipi si conferma nell’intelligenza artificiale. Un’analisi condotta dall’Unesco nel 2024 ha rivelato che i modelli generativi associano le donne a ruoli domestici o di cura fino a quattro volte più degli uomini. Inoltre, i nomi femminili vengono frequentemente correlati a termini come ‘casa’, ‘famiglia’, ‘figli’, mentre quelli maschili a ‘business’ o ‘carriera’.

Ma c’è di più. E di peggio. Alcuni algoritmi generativi permettono di creare immagini sessualizzate di donne reali, senza che le vittime ne siano a conoscenza. Un esempio è il chatbot Grok che, tra dicembre 2025 e gennaio 2026, ha realizzato oltre tre milioni di elaborazioni di questo tipo in 11 giorni, raffigurando anche minori.

Un’ulteriore tendenza discutibile è quella delle cosiddette AI girlfriend. “Si tratta di chatbot come Nomi, Replika AI, Candy AI progettate per creare, sulla base delle indicazioni fornite, fidanzate virtuali personalizzate, sempre disponibili, incapaci di rifiutare o contraddire l’utilizzatore”, conclude Stella.

I commenti sono chiusi.