La mossa anti-IA di Matthew McConaughey: brevetta se stesso

La mossa anti-IA di Matthew McConaughey: brevetta se stesso 1

L’attore Matthew McConaughey è stato registrato come marchio. In realtà, sono stati registrati otto brevetti riguardanti immagini, suoni e momenti iconici dei personaggi da lui interpretati, inclusa la sua battuta d’esordio (Alright, alright, alright!) pronunciata nel film La vita è un sogno del 1993.

Lo US Patent and Trademark Office, l’ente federale americano che si occupa della registrazione e tutela di brevetti e marchi, ha approvato le domande presentate da McConaughey per limitare l’uso in contenuti generati da intelligenza artificiale.

L’attore di Interstellar ha affermato di aver agito anche per fornire una base giuridica chiara contro le imitazioni non autorizzate.

Stabilire confini di controllo e consenso prima che sia troppo tardi – poiché non risultano casi di uso improprio delle caratteristiche distintive di McConaughey – appare come un modo per prevenire la proliferazione dei contenuti generati da IA, in un periodo caratterizzato da deepfake che spinge legislatori a livello internazionale e (inclusa l’Italia) a occuparsi della questione.

I deepfake, McConaughey e la Danimarca

Una misura in questa direzione è stata adottata dalla Danimarca: nel tentativo di limitare i deepfake, il governo intende presentare al Parlamento un’estensione del diritto d’autore alla persona. Questa proposta mira a modificare la legge locale sul copyright per riconoscere che ogni cittadino – non solo le personalità famose – possiede diritti legali sulla propria e sui propri tratti distintivi.

In tal modo, si intende prevenire che voci, volti e caratteristiche fisiche possano essere sfruttati senza il consenso dei danesi, che avranno la possibilità di richiedere alle piattaforme di rimuovere contenuti non autorizzati, con conseguente richiesta di risarcimenti per i danni causati.

Nel pacchetto normativo vengono escluse le parodie, la satira e le opere creative identificate come tali.

Tuttavia, la strategia di Matthew McConaughey ha alcuni limiti e riguarda principalmente le manipolazioni video che lo ritraggono.

Infatti, come spiega Marco Ramilli, fondatore e CEO di IdentifAI, un’azienda italiana attiva nel riconoscimento dei contenuti generati da intelligenza artificiale: “L’attore ha agito un po’ in anticipo. Oggi non esiste una tecnologia in grado di determinare quali dati siano stati utilizzati per addestrare un modello di IA; tuttavia, registrando oggi i propri tratti distintivi, McConaughey si è messo in una posizione vantaggiosa.”

Difendersi dai fake e dalle manipolazioni

Le IA possono fare la differenza, riuscendo a influenzare il senso e il consenso delle persone e, non da meno, a farle cadere in trappole e frodi finanziarie.

Oltre a ciò, i deepfake possono anche essere utilizzati come alibi: un personaggio noto che si rendesse conto di aver fatto una dichiarazione eccessiva può trovare rifugio istillando il dubbio di essere stato vittima di una manipolazione. Il deepfake potrebbe diventare il nuovo “mi hanno hackerato l’account”.

Da qualsiasi angolazione li si consideri, i fake sono fenomeni complessi che possono disorientare l’opinione pubblica; secondo il World Economic Forum, la disinformazione generata dall’IA è efficace soprattutto perché sfrutta la rapidità e l’emotività, non perché sia tecnologicamente perfetta.

Anche se non esiste una soluzione infallibile, è possibile difendersi partendo da alcuni presupposti. Non potendo più fidarci di ciò che vediamo e ascoltiamo, è fondamentale conoscere l’origine dei contenuti che consumiamo. Diverse aziende tecnologiche e media stanno sviluppando sistemi che indicano chi ha creato un’immagine o un video, quando e con quale strumento.

Un esempio è la Content Authenticity Initiative, sostenuta da Adobe, Microsoft, BBC e altri grandi gruppi, che mira a inserire informazioni verificabili direttamente nei file multimediali. Altre risorse online restituiscono la probabilità di artificialità dei contenuti caricati.

Sul piano della difesa personale si può fare poco, come sottolinea Marco Ramilli: “Se si desidera evitare che un’IA venga addestrata con i propri dati, ci sono tecnologie immature, piattaforme prototipali che, a partire da una fotografia reale, scandagliano il web per cercare contenuti simili, al fine di rilevare eventuali fake o impersonificazioni. Ma si tratta di tecnologie non molto funzionali che possono fornire falsi positivi.”

Ciascuno può prendere le proprie precauzioni, continua Ramilli: “Possiamo non condividere foto con le IA, verificando che le risorse online su cui postiamo abbiano un End users license agreement (Eula) che garantisca che i dati caricati non vengano utilizzati da IA.”

Allargando lo scenario a livello globale, la situazione diventa ancor più complessa.

La Spagna, ad esempio, ha annunciato normative più rigorose contro l’uso non consensuale di immagini artificiali. L’Unione Europea, con l’AI Act, impone obblighi di trasparenza sui contenuti generati artificialmente. Queste misure non fermano i fake, ma aumentano il costo legale per produrli.

Oltre agli interventi dei legislatori e alle misure adottate dalle piattaforme che si impegnano a segnalare i contenuti artificiali e, se necessario, a rimuoverli, la migliore difesa rimane e rimarrà lo spirito critico, poiché immaginare un internet e un web completamente privi di fake è impossibile.

La questione delle distorsioni operate grazie alle IA è una realtà alla quale dobbiamo abituarci, per questo è fondamentale saper riconoscere i contenuti autentici da quelli artefatti.

L’alternativa percorribile

Esiste un’alternativa più efficace, almeno secondo il parere del responsabile operativo di Instagram Adam Mosseri: certificare i contenuti genuini per evitare di doversi occupare della ben più ardua operazione di smascherare quelli falsi. Per realizzarlo, però, sono necessari standard condivisi, il che implica la volontà concorde delle diverse parti coinvolte.

L’intento non è fermare la tecnologia, ma chiarire quando un contenuto è “sintetico”, evitando che venga scambiato per reale. La difesa non sarà un singolo strumento, ma una combinazione di trasparenza, norme chiare e attenzione umana.

Non riacquisteremo fiducia nelle immagini; dovremo imparare a conoscere a fondo i contesti per poter distinguere quelle autentiche da quelle false.

Lascia una risposta

L'indirizzo email non verrà pubblicato.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More