L’intelligenza artificiale alla prova del voto: i pregiudizi politici dei grandi modelli linguistici
Una ricerca realizzata da studiosi delle università di Amsterdam e Oslo ha evidenziato i pregiudizi politici delle intelligenze artificiali, la cui importanza è stata meno esplorata rispetto ai bias relativi a razza e genere, ampiamente analizzati negli ultimi anni.
Lo studio (consultabile qui), intitolato Uncovering Political Bias in Large Language Models using Parliamentary Voting Records, ha analizzato oltre 15mila mozioni votate dai legislatori norvegesi, olandesi e spagnoli, fornendo i risultati di voto a diversi modelli di linguaggio di grandi dimensioni (LLM), tra cui GPT-4o mini di OpenAI e Llama di Meta.
Il termine Large language model si riferisce a modelli di intelligenza artificiale addestrati per interpretare e generare linguaggio naturale, ovvero il modo in cui un essere umano comunica. I risultati ottenuti dagli studiosi mostrano che le IA tendono a favorire posizioni di sinistra, dimostrando quindi una minore aderenza alle ideologie conservatrici.
Dati e metodologia
Quello condotto dai ricercatori olandesi e norvegesi non rappresenta il primo studio che analizza le capacità interpretative degli LLM, ma è il primo a essere basato su un volume significativo di dati. Infatti, utilizzando database nazionali, i ricercatori hanno fornito ai modelli IA 15.765 mozioni parlamentari, distribuite come segue:
- 2.701 mozioni della seconda camera olandese (votate tra il 2022 e il 2024), con i voti di 15 partiti politici
- 10.584 mozioni dell’assemblea nazionale norvegese (2018-2024), coprendo 9 partiti principali
- 2.480 iniziative del congresso dei deputati spagnolo (votate dal 2016 al 2025) che hanno generato oltre 270mila voti individuali espressi dai rappresentanti di 10 partiti
I modelli IA sono stati addestrati con i risultati elettorali, chiedendo loro di rispondere Sì o No alle domande poste dai vari legislatori, simulando così un voto parlamentare.
Per evitare influenze retoriche, i modelli IA sono stati incaricati di votare basandosi esclusivamente sulle clausole operative delle mozioni, escludendo quindi i preamboli presentati da sostenitori e oppositori delle oltre 15mila mozioni.
I modelli utilizzati per verificare la presenza di bias includono: GPT-3.5 Turbo e GPT-4o mini di OpenAI; Llama2-7B e Llama3-8B di Meta; Mistral-7B; Gemma 2-9B di Google, e altri modelli Open source come Falcon3-7B e DeepSeek-7B. La selezione dei modelli IA è stata guidata dalla volontà dei ricercatori di comprendere se la presenza di bias possa essere considerata sistemica e per includere sia i modelli della Silicon Valley che quelli Open source.
I risultati: un’IA orientata al centro-sinistra e l’entity bias
I risultati rivelano una certa coerenza: gli LLM tendono a collocarsi in modo costante in un’area liberal-progressista e di centro-sinistra.
In particolare, i modelli GPT di OpenAI hanno mostrato la massima coerenza ideologica e una maggiore sicurezza nelle risposte, stabilendosi saldamente nell’area del centro-sinistra economico.
Al contrario, la famiglia Llama ha mostrato una maggiore variabilità e incertezza nel voto, pur mantenendo la tendenza generale.
Tra gli aspetti che emergono dallo studio c’è l’entity bias: il voto dei modelli IA varia se una mozione è attribuita a un partito specifico oppure se è collegata a una forza politica anonima.
È emerso un sistematico pregiudizio negativo verso i partiti di destra conservatrice e populista, come il PVV olandese, il FrP norvegese o VOX in Spagna.
Lo studio dimostra che, quando una legge è stata associata a uno di questi schieramenti, i modelli hanno votato No con una frequenza significativamente maggiore, indipendentemente dal contenuto della mozione stessa. Questo fenomeno è risultato particolarmente evidente in GPT-4o mini, che ha mostrato un pregiudizio negativo persistente verso la destra in tutti e tre i sistemi politici analizzati.
Gli aspetti importanti
La ricerca evidenzia che queste tendenze non possono essere attribuite semplicemente alla formulazione delle domande, poiché i risultati rimangono stabili anche parafrasando i testi.
Il potenziale rischio segnalato dai ricercatori riguarda il nostro accesso alle informazioni politiche. In altre parole, il rischio è che questi modelli possano, in modo invisibile, influenzare l’opinione pubblica, alimentare determinati stereotipi politici e limitare la diversità del discorso democratico.
Diventa quindi fondamentale garantire audit trasparenti e indipendenti sull’ideologia degli algoritmi per il futuro delle democrazie digitali.
È importante ribadire che lo studio non stabilisce paralleli tra le “preferenze” politiche dei LLM e quelle di un elettore umano, non afferma che l’IA possieda opinioni autonome e soprattutto non sostiene che le chatbot influenzino su larga scala gli elettori.
In parallelo – seppure in modo indiretto – lo studio solleva due temi attuali che generano dibattiti. Ossia, le IA mostrano comportamenti emergenti (quelli non previsti da chi le progetta e sviluppa) e, nello stesso tempo, continuare a sostenere che i modelli IA siano pappagalli stocastici che ripetono e assemblano parole è ormai obsoleto.
I precedenti
Secondo una ricerca del 2023 dell’Università di Washington, della Carnegie Mellon University e della Xi’an Jiaotong University, condotta su 14 LLM, ChatGPT e GPT-4 di OpenAI sarebbero più orientati a sinistra, mentre LLaMA di Meta sembrerebbe tendere a destra.
Un altro studio pubblicato a maggio del 2025, realizzato da ricercatori indipendenti e da studiosi della New York University di Abu Dhabi (Emirati Arabi Uniti), conclude che i modelli IA si rivelano moderati nelle posizioni politiche ma che, esaminando i risultati in dettaglio, si tratta di un equilibrio che è in realtà un punto medio, simile a quello di un elettore umano moderato che può coprire posizioni estreme in direzioni opposte. Anche questo studio riconosce una certa predisposizione dei modelli IA al pregiudizio in ambito politico.