Oltre a Grok: Apple e Google hanno eliminato numerose applicazioni per la condivisione di immagini pornografiche.
Il 9 gennaio scorso, l’intelligenza artificiale Grok è diventata oggetto di attenzione mediatica per il suo utilizzo nella creazione di immagini di nudo, dando vita a una controversia che ha raggiunto Bruxelles, inducendo la Commissione europea ad avviare un’inchiesta su X (Twitter), la piattaforma che integra questa IA controversa.
Analogamente, il procuratore generale della California, Rob Bonta, ha ordinato a xAI, l’azienda produttrice di Grok collegata al fondatore di X, Elon Musk, di interrompere immediatamente la generazione e la diffusione di contenuti sessuali non consensuali (deepfake).
A distanza di oltre due settimane, l’organizzazione no-profit Tech Transparency Project ha pubblicato i risultati di uno studio sulle numerose applicazioni IA che, come Grok, consentono di creare immagini con contenuti sessuali senza alcun consenso.
La reazione di Google e Apple è stata rapida, ma il Tech Transparency Project critica l’atteggiamento dei due colossi, considerato poco proattivo.
Oltre 100 app rimosse dagli Store
La ricerca ha identificato 55 app nel negozio per dispositivi Android (Google Play Store) e 47 in quello per dispositivi iOS (Apple App Store).
In totale, sostiene l’organizzazione no-profit, queste 102 applicazioni sarebbero state scaricate più di 700 milioni di volte e avrebbero generato ricavi per circa 117 milioni di dollari.
Da qui emerge la prima critica a Google e Apple, che, come evidenziato dall’inchiesta, trattengono il 30% dei guadagni provenienti dalle app.
Inoltre, il Tech Transparency Project sottolinea come queste app siano in contraddizione con le politiche stabilite da Apple e Google per garantire la sicurezza degli utenti. Regole che, in particolare nel caso di Apple, sono molto severe.
Grok è semplice da usare, ma non è colpevole di tutto
Katie Paul, direttrice dell’organizzazione no-profit, ha ribadito che “Grok rappresenta in realtà solo la punta dell’iceberg. I post venivano pubblicati su X affinché il pubblico potesse vederli. Tuttavia, contenuti ancor più espliciti possono essere generati da alcune di queste altre app, ed è questo che ci ha spinti a affrontare la questione”.
Le app identificate e successivamente rimosse erano per lo più classificate come idonee anche per i minori, accentuando la pericolosità di tali strumenti che sono facili o relativamente facili da utilizzare.
Il fenomeno dei deepfake è complesso e l’uso a sfondo sessuale, pur essendo estremamente grave, rappresenta solo una parte del problema.
Le immagini e i video creati artificialmente sono capaci di influenzare l’opinione pubblica, specialmente su temi divisivi e rilevanti, e sono utilizzati anche da criminali di varia natura.
L’incertezza dei dati e la realtà sottostante
Misurare il fenomeno dei deepfake tramite dati numerici può fornire un’idea della sua portata, ma non risolve la questione.
Focalizzandosi sull’indagine condotta dal Tech Transparency Project, i numeri sembrano poco affidabili: da un lato, i 700 milioni di download citati non sembrano sostenuti da evidenze concrete; dall’altro, Apple ha dichiarato di aver rimosso 24 applicazioni e non 47, mentre Google ha comunicato di aver rimosso “diverse applicazioni” senza fornire cifre precise.
Contare applicazioni e vittime è utile per censimenti e statistiche, ma agire solo contro uno o l’altro aspetto non è sufficiente.
Il 9 gennaio, tre senatori americani hanno chiesto a Google e Apple di eliminare l’applicazione X (Twitter) dai rispettivi store e, sebbene l’iniziativa sia valida e lodevole, essa rappresenta a sua volta poco più di una goccia nell’oceano.
Grok e le app IA disponibili negli store sono facili da utilizzare e generalmente accessibili a tutti.
Tuttavia, sotto la superficie della facilità d’uso si cela un universo di strumenti Open source che possono essere impiegati per generare qualsiasi tipo di deepfake, e non tutti questi strumenti sono complicati da utilizzare.
In aggiunta, anche tool come Stable Diffusion (e i modelli derivati) possono essere riaddestrati per fornire risultati eticamente discutibili e illegali, anche se non sono stati formati con dataset contenenti nudità.
La lotta per limitare questi strumenti (che sono davvero numerosi) è sbilanciata. Una lezione può essere appresa dal tecnologicamente lontano 2019, quando l’app DeepNudes è stata rimossa dalla piattaforma per la condivisione di codice Github senza fermare il proliferare delle numerose fork (copie modificate di un progetto originale) che hanno reso vana la sua rimozione.
Gli strumenti Open source, sebbene richiedano configurazioni e dataset specifici, non sono generalmente difficili da utilizzare.
Censire l’uso che se ne fa è impossibile, anche perché molti di questi strumenti possono essere installati su computer personali di media potenza il cui costo parte indicativamente da mille euro.
Contrastare il fenomeno dei deepfake è sicuramente un’azione positiva, ma indicare questo o quel modello IA o chiedere la rimozione di molte app non devono essere le sole strategie per affrontarlo.
I commenti sono chiusi.