Intelligenza artificiale generativa e deepfake: in arrivo le etichette previste dall’AI Act
Al museo Mauritshuis de l’Aia si è tenuta una mostra di opere ispirate a Vermeer realizzate con IA
Presto, i contenuti creati o alterati dall’intelligenza artificiale, inclusi i deepfake, saranno accompagnati da un’etichetta e identificati a livello informatico. Questa è una delle misure previste dalla nuova legislazione europea sull’IA (l’AI Act) per promuovere la trasparenza.
Per assistere le aziende nel rispettare tali obblighi, la Commissione Europea ha reso disponibile la prima bozza del Codice di buone pratiche per la trasparenza dei contenuti generati dall’IA.
Di cosa si tratta
Il codice rappresenta uno strumento facoltativo, sviluppato da esperti indipendenti all’interno di un processo multilaterale, che offre soluzioni pratiche per aderire ai requisiti di trasparenza dell’AI Act.
Originato da un lavoro avviato lo scorso novembre, che ha coinvolto centinaia di partecipanti e stakeholder, il documento è suddiviso in due sezioni: la prima rivolta a chi crea sistemi di IA (fornitori), la seconda a chi li implementa (deployer).
La marcatura dei contenuti generati dall’IA
L’AI Act richiede ai fornitori di algoritmi generativi di assicurare che gli output (testi, immagini, video, foto) siano etichettati in un formato leggibile meccanicamente e identificabili come artificiali.
Per soddisfare questo requisito, il codice suggerisce un approccio multilivello, fondato sull’applicazione combinata di diverse tecniche di marcatura attiva, come l’uso di una filigrana invisibile o l’inserimento di informazioni come metadati.
Sono proposte anche soluzioni per rilevare la marcatura, come la disponibilità gratuita di un’interfaccia o di uno strumento di rilevamento accessibile a tutti. Inoltre, il documento incoraggia a promuovere l’alfabetizzazione riguardo alla provenienza e alla verifica dei contenuti dell’IA, in conformità con l’obbligo di formazione stabilito dalla normativa europea.
L’etichettatura di deepfake e testi artificiali
La legge impone a chi utilizza sistemi di IA che generano o modificano immagini, audio o video identificabili come deepfake di indicare che il contenuto è artificiale. Lo stesso principio si applica ai testi pubblicati per informare il pubblico su questioni di rilevanza sociale.
Per supportare le aziende nell’adattamento, il codice introduce innanzitutto una tassonomia condivisa per classificare gli output generati dagli algoritmi in due categorie: contenuti completamente generati dall’IA e contenuti assistiti dall’IA, come ad esempio la sintesi tramite IA di testi creati da persone o la modifica di un volto o di una voce in un video.
È prevista inoltre un’icona comune che, in attesa di quella sviluppata a livello europeo, consiste nell’acronimo di due lettere della locuzione «intelligenza artificiale», anche secondo le traduzioni nelle varie lingue dell’Ue. L’icona, che include la tassonomia elaborata nel codice, dovrà essere chiaramente visibile alla prima esposizione e collocata in modo appropriato in relazione al formato del materiale e al contesto di diffusione.
Il documento considera anche alcune situazioni specifiche, come la diffusione di video in tempo reale o la creazione di podcast. Per quanto riguarda i testi artificiali, l’icona potrebbe essere posizionata nella parte superiore o dopo la frase finale del testo. Inoltre, anche ai deployer è richiesta la realizzazione di attività di formazione e monitoraggio interno.
Prossimi passi
La Commissione raccoglierà i feedback su questa prima bozza di codice fino al 23 gennaio. La seconda versione del documento è prevista entro metà marzo. L’obiettivo è pubblicare il testo definitivo entro giugno, dato che i requisiti di trasparenza dell’AI Act saranno applicabili dal 2 agosto 2026. Tuttavia, se il progetto di semplificazione proposto dalla Commissione con il pacchetto Digital Omnibus sarà approvato, potrebbe esserci un periodo transitorio di sei mesi per l’applicazione dei requisiti di marcatura per i fornitori.