Oltre a Grok: Apple e Google hanno eliminato numerose applicazioni per la condivisione di immagini di nudo.
Il 9 gennaio scorso, l’intelligenza artificiale Grok è stata al centro dell’attenzione per essere impiegata nella creazione di immagini di nudo, dando vita a una controversia che ha raggiunto Bruxelles, portando la Commissione europea ad avviare un’inchiesta su X (Twitter), il social network che integra l’IA in questione.
Analogamente, il procuratore generale della California, Rob Bonta, ha ordinato a xAI, l’azienda produttrice di Grok, legata al fondatore di X, Elon Musk, di interrompere immediatamente la creazione e distribuzione di contenuti sessuali non consensuali (deepfake).
A poco più di due settimane di distanza, l’organizzazione no-profit Tech Transparency Project ha pubblicato i risultati di uno studio riguardante le numerose applicazioni IA che, come Grok, consentono di realizzare immagini a contenuto sessuale senza alcun consenso.
La risposta di Google e Apple è arrivata rapidamente, ma Tech Transparency Project critica l’atteggiamento dei due colossi, considerato poco proattivo.
Oltre 100 app eliminate dagli Store
La ricerca ha identificato 55 app sullo store per dispositivi Android (Google Play Store) e 47 su quello per i dispositivi iOS (Apple App Store).
In totale, secondo l’organizzazione no-profit, queste 102 applicazioni sarebbero state scaricate oltre 700 milioni di volte e avrebbero generato un fatturato di circa 117 milioni di dollari.
Da qui, la prima critica a Google e Apple che, come evidenziato dall’indagine, trattengono il 30% dei profitti derivanti dalle app.
Inoltre, Tech Transparency Project sottolinea che queste app contravvengono alle politiche stabilite da Apple e Google per garantire la sicurezza degli utenti. Regole che, in particolare nel caso di Apple, sono molto rigorose.
Grok è semplice da utilizzare ma non è colpevole di ogni male
Katie Paul, direttrice dell’organizzazione no-profit, ha ribadito che “Grok è in realtà solo la parte visibile di un problema più grande. I post venivano pubblicati su X affinché potessero essere notati. Tuttavia, contenuti ancora più espliciti possono essere generati da altre applicazioni, ed è questo che ci ha indotti a occuparci della questione”.
Le app individuate e successivamente rimosse erano per lo più classificate come idonee anche ai minori, evidenziando la pericolosità di tali strumenti, che risultano facili o relativamente semplici da utilizzare.
Il problema dei deepfake in generale è serio e l’uso a contenuto sessuale, sebbene estremamente grave, rappresenta solo una parte della questione.
I video e le immagini create artificialmente sono capaci di influenzare l’opinione pubblica, specialmente su temi divisivi e significativi, e, inoltre, sono strumenti sfruttati da criminali di varia natura.
L’incertezza dei dati e la realtà sottostante
Quantificare il fenomeno dei deepfake attraverso i numeri può dare un’idea della sua portata, ma non risolve il problema.
Focalizzandoci sull’indagine condotta da Tech Transparency Project, i dati sembrano incerti: in parte perché i 700 milioni di download menzionati non appaiono supportati da evidenze oggettive, in parte perché Apple ha confermato di aver rimosso 24 applicazioni e non 47, mentre Google ha comunicato di aver eliminato “diverse applicazioni” senza fornire cifre precise.
Contare le applicazioni e le vittime è utile per censimenti e statistiche, ma agire esclusivamente contro uno o l’altro aspetto non è sufficiente.
Il 9 gennaio, tre senatori statunitensi hanno richiesto a Google e Apple di eliminare l’applicazione X (Twitter) dai rispettivi store e, sebbene sia un’iniziativa lodevole, essa si presenta come solo una goccia nell’oceano.
Grok e le app IA disponibili negli app store sono semplici da utilizzare e generalmente accessibili a tutti.
Tuttavia, dietro la facilità d’uso si cela un universo di strumenti Open source che possono essere impiegati per generare qualsiasi tipo di deepfake, e non tutti questi strumenti sono complicati da utilizzare.
In aggiunta, anche strumenti come Stable Diffusion (e i modelli derivati), pur non essendo addestrati con dataset contenenti nudità, possono essere riaddestrati per produrre risultati eticamente discutibili e illeciti.
La battaglia per limitare questi strumenti (che sono davvero numerosi) è sbilanciata. Un insegnamento proviene dal lontano 2019 tecnologico, quando l’app DeepNudes è stata rimossa dalla piattaforma di condivisione di codice Github, ma ciò non ha impedito il proliferare di molte fork (copie modificate di un progetto originale) che hanno reso vana tale rimozione.
Gli strumenti Open source tendono a richiedere configurazioni e dataset specifici, ma, nella maggior parte dei casi, il loro utilizzo non è proibitivo.
Registrare l’uso che se ne fa è impossibile, anche perché molti di questi strumenti possono essere installati su computer personali di media potenza il cui costo si aggira indicativamente attorno ai mille euro.
Intraprendere azioni per contenere il fenomeno dei deepfake è sicuramente positivo, ma puntare il dito contro questo o quel modello IA o richiedere la rimozione di numerose app non possono essere l’uniche modalità per affrontarlo.
I commenti sono chiusi.