“Grok, metti una busta di carta in testa alla più brutta”: il giudizio dell’IA è un pericolo

“Grok, metti una busta di carta in testa alla più brutta”: il giudizio dell’IA è un pericolo 1

Negli ultimi giorni, Grok – il chatbot di xAI, una delle aziende di Elon Musk – è tornato al centro delle polemiche poiché alcuni utenti hanno cominciato a utilizzarlo come una sorta di tribunale estetico, chiedendogli di intervenire sulle persone ritratte nelle foto con logiche di scherno (“metti un sacchetto di carta in testa alla più brutta”) o di selezione sociale (“cancella quella più carina”).

Questi esempi si collocano in un contesto più ampio e documentato, relativo a richieste degradanti rivolte a Grok per modificare il corpo delle donne.

Un comando, un verdetto

Il problema è che strumenti come Grok semplificano ulteriormente il “lavoro” degli hater: l’utente non deve più saper utilizzare Photoshop, né farsi carico della violenza simbolica; è sufficiente fornire a un chatbot una semplice istruzione testuale.

Quando l’ordine è sessista, l’automazione lo rende più replicabile e virale, specialmente su una piattaforma polarizzante, progettata per la diffusione immediata e per incentivare l’engagement.

Il rischio maggiore: il giudizio dell’IA

Dietro all’esperimento sessista si cela un pericolo ancora più grande: abituarsi all’idea che un algoritmo possa esprimere un giudizio sociale, e che tale giudizio possieda un’aura di oggettività.

Le ricerche sulla percezione degli algoritmi mostrano da anni quanto sia semplice attribuire alle macchine un’autorità “neutra”, anche quando esse riflettono pregiudizi umani. E, quando l’interfaccia è fluida e conversazionale, questa autorità sembra quasi auto-evidente: chatbot come Grok e , infatti, non si limitano a fornire un output, ma lo accompagnano con un ragionamento.

E, nella psicologia di chi legge e osserva, un ragionamento fluido spesso appare come una prova.

Bias estetici: quando “bello” diventa una scorciatoia morale

Il giudizio estetico non è mai solo una questione di estetica. Studi recenti sui modelli linguistici multimodali, capaci di interpretare e descrivere i volti, evidenziano un bias di attrattività ricorrente: le persone ritenute più attraenti ricevono giudizi sistematicamente più favorevoli anche in contesti che non hanno nulla a che fare con l’aspetto fisico.

Questo meccanismo influisce su decisioni e valutazioni in ambiti socialmente significativi, dalla fiducia alla competenza presunta.

Si tratta della traduzione algoritmica di un fenomeno ampiamente documentato nelle scienze sociali, l’halo effect.

L’associazione automatica tra bellezza e qualità positive continua a operare anche nell’era dell’intelligenza artificiale. Non viene superata dal progresso tecnologico, ma viene integrata nei sistemi che media il nostro sguardo e amplificata dalla loro apparente neutralità, trasformando un pregiudizio umano in una regola computazionale.

Nel campo dei generatori visivi, i bias non sono un incidente isolato, ma una proprietà emergente: più i sistemi vengono addestrati su dataset che riflettono stereotipi e gerarchie del web, più tendono a riprodurre una “normalità” estetica ristretta, penalizzando quindi corpi, età, tratti e identità fuori canone.

Un’analisi del 2025 sui bias nella generazione di immagini menziona esplicitamente stereotipi di genere, discriminazioni legate al peso e “violenza estetica” incorporata nelle rappresentazioni create dai modelli.

Quando l’editing diventa abuso

Recentemente, Grok ha cominciato a “spogliare” donne nelle foto a richiesta degli utenti: ha rimosso in pochi istanti i loro vestiti, sostituendoli nelle immagini generate con lingerie o bikini, spesso senza consenso.

Sotto la pressione dei media, xAI ha limitato le funzioni di Grok relative alla generazione e all’editing delle immagini – direttamente su X – ai soli utenti abbonati. Questa restrizione ha diminuito la pubblicazione automatica di certe immagini nelle risposte, pur lasciando aperti spiragli tramite altre modalità d’uso (tab dedicata, app separata).

Malesia e Indonesia bloccano Grok

La controversia riguardante il nudo ha già avuto conseguenze concrete: Malesia e Indonesia hanno annunciato restrizioni e blocchi su Grok citando l’utilizzo per immagini sessualizzate e non consensuali. E nel Regno Unito si sono verificate minacce di enforcement severo contro X.

Lascia una risposta

L'indirizzo email non verrà pubblicato.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More