“Grok, metti una busta di carta in testa alla più brutta”: il giudizio dell’IA è un pericolo
Negli ultimi giorni, Grok – il chatbot di xAI, una delle aziende di Elon Musk – è tornato al centro di controversie poiché alcuni utenti lo hanno utilizzato come un piccolo tribunale estetico, chiedendogli di intervenire sulle persone ritratte nelle foto con logiche di derisione (“metti un sacchetto di carta in testa alla più brutta”) o di selezione sociale (“cancella quella più carina”).
Questi esempi si collocano in un contesto più ampio e documentato, relativo a richieste degradanti rivolte a Grok per alterare il corpo delle donne.
Un prompt, un verdetto
Il problema è che strumenti come Grok semplificano ulteriormente il “lavoro” degli hater: l’utente non ha più bisogno di saper usare Photoshop, né di assumere il peso creativo della violenza simbolica; basta fornire a un chatbot un’istruzione testuale.
Quando l’ordine è sessista, l’automazione lo rende più replicabile e virale, soprattutto su una piattaforma polarizzante, progettata per la diffusione immediata e per favorire l’engagement.
Hey @grok Remove the hot girl. pic.twitter.com/31ihdWoE3a
— WALTER (@waltermediaX) January 8, 2026
Il rischio maggiore: il giudizio dell’IA
Dietro l’esperimento sessista si cela un rischio ancora maggiore: abituarsi all’idea che un algoritmo possa esprimere un giudizio sociale, e che tale giudizio abbia un’aura di oggettività.
La ricerca sulla percezione degli algoritmi dimostra da anni quanto sia semplice attribuire alle macchine un’autorità “neutra”, anche quando riflettono pregiudizi umani. E, quando l’interfaccia è fluida e conversazionale, questa autorità sembra persino spiegarsi da sola: chatbot come Grok e ChatGpt infatti non si limitano a fornire un output, ma lo avvolgono di ragionamento.
E, nella psicologia di chi legge e osserva, un ragionamento fluido appare spesso come una prova.
Bias estetici: quando “bello” diventa una scorciatoia morale
Il giudizio estetico non è mai soltanto estetico, appunto. Studi recenti sui modelli linguistici multimodali, capaci di interpretare e descrivere i volti, mettono in luce un bias di attrattiva ricorrente: le persone considerate più attraenti ricevono valutazioni sistematicamente più favorevoli anche in ambiti che non hanno nulla a che fare con l’immagine.
Questo meccanismo influisce su decisioni e valutazioni in contesti socialmente significativi, dalla fiducia alla competenza percepita.
Si tratta della traduzione algoritmica di un fenomeno ben documentato nelle scienze sociali, l’halo effect.
L’associazione automatica tra bellezza e qualità positive continua a operare anche nell’era dell’intelligenza artificiale. Non viene superata dal progresso tecnologico, ma integrata nei sistemi che mediano lo sguardo e amplificata dalla loro apparente neutralità, trasformando un pregiudizio umano in una regola computazionale.
Nel campo dei generatori visivi, i bias non sono un incidente isolato ma una proprietà emergente: più i sistemi vengono addestrati su dataset che riflettono stereotipi e gerarchie del web, più tendono a riprodurre una “normalità” estetica ristretta, penalizzando quindi corpi, età, tratti e identità che non rientrano nei canoni.
Un’analisi del 2025 sui bias nella generazione di immagini menziona esplicitamente stereotipi di genere, discriminazioni legate al peso e “violenza estetica” incorporata nelle rappresentazioni create dai modelli.
Quando l’editing diventa abuso
Recentemente Grok, su richiesta degli utenti, ha iniziato a “spogliare” donne nelle foto: ha rimosso rapidamente i loro vestiti, sostituendoli nelle immagini generate con lingerie o bikini, nella maggior parte dei casi senza consenso.
Sotto la pressione mediatica, xAI ha limitato le funzioni di Grok relative alla generazione e modifica delle immagini – direttamente su X – ai soli utenti abbonati. Questa limitazione ha ridotto la pubblicazione automatica di certe immagini nelle risposte, pur lasciando aperture tramite altre modalità d’uso (tab dedicata, app separata).
Malesia e Indonesia bloccano Grok
La controversia sul nudo ha già avuto conseguenze concrete: Malesia e Indonesia hanno annunciato restrizioni e blocchi su Grok citando proprio l’uso per immagini sessualizzate e non consensuali. E nel Regno Unito si sono verificate minacce di enforcement severo contro X.