La mossa anti-IA di Matthew McConaughey: brevetta se stesso
L’attore Matthew McConaughey è ufficialmente un marchio registrato. In realtà, sono stati registrati otto brevetti riguardanti immagini, suoni e momenti emblematici dei personaggi da lui interpretati, inclusa la sua battuta iconica (Alright, alright, alright!) pronunciata nel film La vita è un sogno del 1993.
Lo US Patent and Trademark Office, l’agenzia federale statunitense responsabile della registrazione e protezione di brevetti e marchi, ha approvato le richieste presentate da McConaughey per bloccare l’uso in contenuti generati dalle IA.
L’attore di Interstellar ha affermato di aver agito anche per stabilire una base legale chiara contro le imitazioni non autorizzate.
Definire limiti di controllo e consenso prima che sia troppo tardi – attualmente non ci sono segnalazioni di uso improprio delle caratteristiche distintive di McConaughey – sembra essere un modo per evitare la proliferazione di contenuti generati dalle IA, in un momento storico denso di deepfake che spinge legislatori internazionali e nazionali (Italia inclusa) ad affrontare la questione.
I deepfake, McConaughey e la Danimarca
Una mossa in tal senso è stata intrapresa dalla Danimarca: nel tentativo di limitare i deepfake, il governo intende presentare al Parlamento un’estensione del diritto d’autore alla persona. Questa proposta mira a modificare la legislazione locale sul copyright per riconoscere che ogni cittadino – non solo le persone famose – possiede diritti legali sulla propria immagine e sui propri tratti distintivi.
In questo modo si vuole prevenire che voci, volti e caratteristiche fisiche possano essere utilizzati senza il consenso dei danesi, ai quali viene concessa la facoltà di richiedere alle piattaforme la rimozione dei contenuti non autorizzati, con la possibilità di chiedere risarcimenti per danni subiti.
Nel pacchetto di norme vengono escluse le parodie, la satira e le opere creative riconosciute come tali.
Tuttavia, la strategia di Matthew McConaughey ha alcuni limiti e si applica principalmente alle manipolazioni video che lo ritraggono.
Infatti, come chiarisce Marco Ramilli, fondatore e CEO di IdentifAI, un’azienda italiana attiva nel settore del riconoscimento dei contenuti generati dalle IA: “L’attore ha agito un po’ in anticipo. Attualmente non esiste una tecnologia in grado di determinare quali dati siano stati utilizzati per addestrare un modello di intelligenza artificiale; tuttavia, registrando oggi i propri tratti distintivi, McConaughey si è messo in una posizione vantaggiosa.”
Difendersi dai fake e dalle manipolazioni
Le IA hanno la capacità di influenzare l’opinione e il consenso delle persone e, non meno importante, possono ingannarle con truffe finanziarie.
Inoltre, i deepfake possono essere utilizzati come alibi: un personaggio pubblico che si accorge di aver esagerato può cercare scuse insinuando di essere stato oggetto di una manipolazione. Il deepfake può diventare il nuovo “mi hanno hackerato l’account”.
Da qualsiasi angolazione si osservino, i fake rappresentano fenomeni complessi che possono confondere le opinioni pubbliche; secondo il World Economic Forum, la disinformazione generata dall’IA funziona principalmente perché sfrutta la rapidità e l’emotività, non perché sia tecnicamente perfetta.
Sebbene non esista una soluzione definitiva, è possibile difendersi partendo da alcuni presupposti. Non potendo più fidarci di ciò che vediamo e ascoltiamo, è essenziale conoscere l’origine dei contenuti che consumiamo. Diverse aziende tecnologiche e media stanno sviluppando sistemi per indicare chi ha creato un’immagine o un video, quando e con quale strumento.
Un esempio è la Content Authenticity Initiative, supportata da Adobe, Microsoft, BBC e altri grandi gruppi, che mira a inserire informazioni verificabili direttamente nei file multimediali. Altre risorse online forniscono la probabilità di artificialità dei contenuti caricati.
Sul fronte della difesa personale ci sono poche opzioni, come evidenziato da Marco Ramilli: “Se si desidera evitare che un’IA venga addestrata con i propri dati, ci sono tecnologie ancora in fase embrionale, piattaforme prototipali che, dopo aver acquisito una fotografia reale, esplorano il web per cercare contenuti simili, al fine di identificare eventuali fake o impersonificazioni. Ma sono tecnologie non molto efficaci e possono restituire falsi positivi.”
Ognuno può adottare le proprie misure precauzionali, continua Ramilli: “Possiamo evitare di condividere foto con le IA, assicurandoci che le piattaforme online su cui postiamo dispongano di un End Users License Agreement (EULA) che garantisca che i dati caricati non vengano utilizzati dalle IA.”
Espandendo il discorso a livello globale, la situazione diventa ancora più intricata.
La Spagna, ad esempio, ha annunciato nuove normative più severe contro l’uso non consensuale di immagini artificiali. L’Unione Europea, con l’AI Act, impone obblighi di trasparenza sui contenuti generati artificialmente. Questi provvedimenti non fermano i fake, ma aumentano il costo legale della loro produzione.
Oltre agli interventi legislativi e alle misure adottate dalle piattaforme per contrassegnare e rimuovere contenuti artificiali, la miglior difesa rimane e rimarrà lo spirito critico, poiché immaginare un internet e un web totalmente privi di fake è irrealistico.
La questione delle distorsioni create dalle IA è una realtà alla quale dobbiamo adattarci, ed è per questo che è fondamentale saper distinguere i contenuti autentici da quelli manipolati.
L’alternativa percorribile
Un’alternativa più efficace esiste, almeno secondo il parere del responsabile operativo di Instagram Adam Mosseri: certificare i contenuti autentici per non dover affrontare il compito ben più arduo di svelare quelli falsi. Per realizzarlo, però, sono necessari standard condivisi, il che richiede una volontà collettiva da parte delle varie parti coinvolte.
L’idea non è quella di bloccare la tecnologia, ma di chiarire quando un contenuto è “sintetico”, evitando che venga scambiato per reale. La difesa non consisterà in uno strumento singolo, ma in una combinazione di trasparenza, regole chiare e attenzione umana.
Non torneremo a fidarci delle immagini, ma dovremo imparare a comprendere meglio i contesti per poter riconoscere quelle genuine da quelle false.