L’IA in ufficio ha un problema di genere: perché gli uomini la usano più delle donne
L’intelligenza artificiale è entrata negli ambienti di lavoro come un nuovo collaboratore: non ha una scrivania, ma si occupa di varie attività. Il problema è che non tutti stanno apprendendo a interagire con essa allo stesso ritmo. In molte situazioni, gli uomini la impiegano più delle donne. Qual è l’origine di questa disparità? E quali conseguenze ci sono quando una competenza si sviluppa a velocità differenti tra i colleghi?
Quando l’IA entra in ufficio, il divario di genere rimane vicino al 20%
Secondo l’analisi pubblicata su “The AI Shift” del Financial Times, che distingue tra utilizzo privato dell’IA generativa e uso legato al lavoro retribuito, si evidenziano due percorsi di adozione molto differenti. Nell’uso quotidiano, il divario di genere si è ridotto: le stime – confermate anche da uno studio pubblicato lo scorso settembre da OpenAI – indicano una parità quasi raggiunta tra uomini e donne. Tuttavia, nei contesti di lavoro, la situazione cambia notevolmente: gli uomini continuano a utilizzare strumenti come ChatGPT con maggiore frequenza rispetto alle donne e, tra coloro che li adottano, dimostrano anche un uso più intensivo. Di conseguenza, se nel settore consumer la disparità di genere tende a diminuire, nel lavoro rimane stabile, se non aumenta.
Parte del divario può essere attribuita a un fattore strutturale tipico del mondo professionale: uomini e donne non sono distribuiti in modo uniforme nei vari settori. Il settore tecnologico, ad esempio, è ancora prevalentemente maschile ed è anche il campo in cui l’IA si diffonde più rapidamente, tra software, dati e automazione. Tuttavia, questa spiegazione non è sufficiente. Le differenze nell’adozione rimangono evidenti anche quando si confrontano colleghi della stessa azienda con ruoli molto simili.
Un’indicazione che emerge anche da altre fonti. Un documento di lavoro della Harvard Business School sintetizza i risultati di 18 studi (oltre 140 mila persone) e conclude che il divario di genere nell’utilizzo dell’IA generativa è presente in diverse aree geografiche, settori e professioni: le donne risultano circa il 20% meno propense a utilizzare questi strumenti, in particolare per scopi professionali. Il rapporto evidenzia come il problema vada ben oltre la semplice partecipazione a settori poco digitalizzati. A influenzare è principalmente una percezione di incertezza riguardante le competenze tecniche: la minore familiarità con questi strumenti porta a un utilizzo meno frequente, quasi per il timore di non essere all’altezza. A ciò si aggiunge la pressione del giudizio sociale, ovvero la paura di apparire meno competenti se si opta per il supporto di un algoritmo. Tutto ciò dimostra che i reali ostacoli non sono tecnologici, ma culturali e psicologici, barriere profonde e molto più difficili da superare rispetto alla semplice mancanza di strumenti.
Evidenze che giungono anche dalla Banca d’Italia, che ha esaminato il rapporto tra intelligenza artificiale e divario di genere con un’analisi che mostra un divario nell’adozione dell’IA generativa comune a contesti diversi come l’Italia e gli Stati Uniti. Anche in questo caso, gli uomini tendono a utilizzare questi strumenti con una frequenza decisamente maggiore; la differenza persiste anche a parità di ruolo, suggerendo dinamiche comportamentali profonde. Il rapporto evidenzia negli uomini una maggiore predisposizione alla sperimentazione tecnologica, unita a una diversa percezione dei rischi legati all’errore o alla privacy. Questo divario rischia di compromettere le prospettive di carriera: se l’IA diventerà il motore della produttività, chi oggi sperimenta meno potrebbe trovarsi domani con un bagaglio di competenze limitato.
Tra sindrome dell’impostore ed etica: cosa ostacola l’uso dell’IA al lavoro
Dietro ai numeri non esiste una sola spiegazione, ma un intreccio di fattori che riguarda più la cultura del lavoro che la tecnologia in sé. Il primo è la fiducia. La cosiddetta “sindrome dell’impostore” sembra caratterizzare in particolare l’approccio femminile: per molte professioniste il problema non è accedere agli strumenti, quanto sentirsi legittimate a farlo in un contesto in cui ogni decisione può essere giudicata. Se il costo reputazionale percepito è così elevato, la sperimentazione subisce un rallentamento.
Inoltre, c’è il nodo dell’etica, un ambito in cui le donne mostrano livelli maggiori di attenzione e, di conseguenza, di esitazione. Non si tratta di una mancanza di coraggio, ma di una prudenza analitica che deriva da domande molto concrete sulla trasparenza e sulla correttezza professionale. Quando entra in gioco l’IA, molte professioniste si interrogano sulla delega all’algoritmo: fino a che punto posso permettermi di essere sostituita dalla macchina senza perdere la titolarità del mio lavoro?
Chi la usa la allena: il rischio di un’IA ottimizzata al maschile
Il tema, infine, non riguarda solo chi adotta l’IA, ma anche il modo in cui l’IA viene addestrata. Più uno strumento viene impiegato, più emergono rapidamente errori e necessità concrete grazie ai feedback degli utenti. Se una parte della forza lavoro è meno presente nell’uso quotidiano, il rischio è che l’intelligenza artificiale venga ottimizzata più rapidamente solo in base ai bisogni e ai linguaggi di chi la utilizza di più (in questo caso, gli uomini). Il risultato finale potrebbe essere un’IA meno aderente all’esperienza femminile, semplicemente perché è stata testata e perfezionata su un insieme di istruzioni e suggerimenti meno variegato e articolato.