La piattaforma di Musk influenza le opinioni (e i voti) verso destra. Uno studio pubblicato su Nature rivela l’algoritmo di X.

La piattaforma di Musk influenza le opinioni (e i voti) verso destra. Uno studio pubblicato su Nature rivela l'algoritmo di X. 1

Non si tratta di un semplice aggregatore di contenuti. È un motore di propaganda. Capace di modificare in modo duraturo le degli utenti. E in un’unica direzione politica: quella della destra conservatrice.

Il titolo dello studio recentemente pubblicato su Nature è neutro: “Gli effetti politici dell’algoritmo di X”. Tuttavia, il contenuto (Italian Tech ha avuto accesso in anteprima) non è affatto neutro. Si tratta di un’analisi impietosa di ciò che è diventato l’ex Twitter negli ultimi tre anni, da quando Elon Musk ne è diventato proprietario. La ricerca, realizzata da un gruppo di accademici provenienti da diverse università, dalla Paris School of Economics alla Bocconi di , ha impiegato tecniche avanzate di data science per isolare l’impatto dell’algoritmo di X sulle convinzioni dei suoi utenti.

Cosa rivela l’analisi dei feed algoritmici

Tutto ha inizio dall’analisi delle due principali modalità di X. I contenuti organizzati secondo le raccomandazioni dell’algoritmo del social (quelli sotto la sezione “Per te”, curata dall’intelligenza artificiale della piattaforma). E quelli disposti in semplice ordine cronologico (“Following”).

Esaminando ciò che accade agli account di 5.000 utenti statunitensi (il campione dello studio, analizzato per sette settimane nel 2023), i ricercatori hanno messo in evidenza quella che considerano una scoperta fondamentale: “Passare da un feed cronologico a uno algoritmico ha incrementato l’engagement e spostato l’opinione politica verso posizioni più conservatrici”, scrivono nell’articolo. “In particolare riguardo alle priorità politiche, alla percezione delle indagini penali su Donald e alle opinioni sulla guerra in “.

In sostanza, lo studio suggerisce che l’algoritmo non si limita a mostrare ciò che l’utente desidera già, ma funge da catalizzatore che orienta attivamente il pensiero su temi rilevanti dell’attualità. E li catalizza tutti in un’unica direzione: quella più affine alle posizioni conservatrici, di destra, trumpiane.

Una volta entrati nel circolo degli influencer di destra, non si esce più

Non solo. Il processo è irreversibile. Una volta che si è interagito a lungo con i post e gli autori dell’algoritmo basato sull’IA, non si torna indietro. I contenuti rimarranno sempre quelli, di autori che si allineano alle posizioni più vicine a Elon Musk o a Donald Trump, ma anche più affini a Vladimir , o anti cinesi: “Passare dal feed algoritmico a quello cronologico non ha prodotto alcun “effetto”. Se l’algoritmo viene disattivato dopo un periodo di utilizzo, le opinioni acquisite non tornano al punto di partenza”.

Il dato più rilevante riguarda il motivo per cui questo spostamento è così difficile da annullare. Gli autori spiegano che “l’esposizione a contenuti curati algoritmicamente ha portato gli utenti a seguire account di attivisti conservatori”. Questo comportamento crea una sorta di eredità informativa che in qualche modo ‘sopravvive’ al software stesso.

“Una volta che gli utenti seguono account promossi dall’algoritmo che trovano coinvolgenti e persuasivi — come quelli degli attivisti politici conservatori — continuano a visualizzare i post di questi account anche dopo aver disattivato l’algoritmo”, scrivono i ricercatori. In pratica, l’utente “spegne” l’intelligenza artificiale passando alla scheda cronologica, ma il suo feed è ormai popolato dai nuovi account suggeriti in precedenza. Ciò rende lo spostamento ideologico una condizione permanente del suo ambiente digitale. Non può cambiare. Anzi, aver interagito o seguito persone legate in qualche modo al pensiero conservatore ne rafforza la presenza, anche sul feed cronologico.

Musk accusa i media di propaganda. Li ha sostituiti con un’altra propaganda

Per comprendere cosa l’algoritmo stesse effettivamente mostrando, il team ha utilizzato il modello linguistico Llama 3 per classificare migliaia di post, convalidando poi i dati tramite annotatori umani. In sostanza, invece di leggere e classificare manualmente centinaia di migliaia di post, un lavoro che poteva essere soggetto a errori o pregiudizi, gli scienziati hanno lasciato che questa analisi venisse effettuata da un’IA open source sviluppata da Meta. La disparità emersa è netta: “L’algoritmo promuove i contenuti conservatori e declassa i post dei media tradizionali”, scrivono.

Nello specifico, lo studio ha quantificato che le testate giornalistiche tradizionali compaiono nel feed algoritmico “il 58,1% in meno” rispetto alla modalità cronologica. Musk ha dichiarato guerra aperta ai media. Ha definito quella dei giornali propaganda. E l’ha sostituita con un’altra, ma funzionale a sé e alla narrazione delle sue convinzioni politiche. Al posto dei media tradizionali, il sistema privilegia post di attivisti e contenuti ad alto coinvolgimento emotivo. “I post nel feed algoritmico ricevono, in media, il 480% di like in più rispetto a quelli nel feed cronologico”. Un dato che spiega come la piattaforma riesca a trattenere gli utenti più a lungo offrendo contenuti più polarizzanti.

Impatto politico: la malleabilità delle piccole opinioni

Dal punto di vista politico, lo studio distingue tra identità partitica (sentirsi Democratici o Repubblicani) e priorità politiche (quali temi si considerano urgenti per il Paese). Mentre il senso di appartenenza a un partito è risultato rigido e difficile da scalfire in sette settimane, le opinioni su temi specifici si sono rivelate sorprendentemente malleabili.

Gli utenti, sottoposti a un bombardamento costante di post che raccontano una verità specifica, o un’opinione particolare su un tema (sia che riguardino le manifestazioni di piazza che su quale dieta sia meglio seguire), tendono a cambiare idea. Magari continuano a dirsi di sinistra, ma con opinioni più di destra. “I nostri risultati dimostrano che l’algoritmo influenza in modo significativo chi gli utenti scelgono di seguire, indicando che gli algoritmi modellano l’esposizione ai contenuti più di quanto si credesse in precedenza”, si legge. Questo implica che l’intelligenza artificiale di X non è uno specchio neutrale, ma un architetto che costruisce attivamente una nuova “dieta mediatica”. Dove l’utente non decide nulla. Ma forma passivamente la sua opinione sul mondo.

Il software nelle democrazie moderne non è solo una questione tecnica

Lo studio ha superato rigorosi test di validità. I ricercatori – si legge – hanno utilizzato il metodo Intention-to-Treat (ITT) e il Generalized Random Forests (GRF), due pilastri fondamentali che assicurano la comunità scientifica sul fatto che i risultati non siano stati influenzati da variabili esterne come età, istruzione o genere. Inoltre, hanno verificato la conformità degli utenti tramite un’estensione del browser Chrome, rilevando che quasi il 90% dei partecipanti ha rispettato l’assegnazione del feed.

In sintesi, la ricerca avverte che “l’esposizione iniziale all’algoritmo di X ha effetti persistenti sulle attuali attitudini politiche e sul comportamento di ‘following’ degli utenti”. Questo suggerisce che nelle democrazie moderne, il software di raccomandazione non è più solo un dettaglio tecnico, ma una variabile fondamentale capace di ridefinire il consenso pubblico e la percezione della realtà sociale.

I commenti sono chiusi.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More