L’AI Act presenta una questione significativa: il modello tedesco potrebbe ostacolare lo sviluppo dell’industria italiana.
Leggi in app
Un’impresa lombarda specializzata nella produzione di macchinari o sistemi di automazione industriale non dispone di numerosi giuristi interni né di uffici a Bruxelles. Ciò che possiede è la certezza che le normative tecniche a cui deve attenersi siano state elaborate da esperti del settore, attraverso un processo standardizzato e prevedibile. È proprio questa certezza che la proposta legislativa conosciuta come AI Omnibus, presentata dal gruppo conservatore PPE e dal gruppo liberale Renew al Parlamento europeo, rischia di compromettere, apparendo come una semplificazione. A sostenere questa posizione ci sono il governo tedesco e alcune importanti associazioni industriali.
Il meccanismo appare di natura tecnica, ma le ripercussioni per le aziende manifatturiere italiane sono tangibili e immediate.
Attualmente, l’AI Act suddivide i prodotti soggetti alle proprie normative in due categorie. La prima include oggetti di uso quotidiano come giocattoli, ascensori, dispositivi medici e macchinari industriali, mentre la seconda comprende otto normative settoriali come aviazione civile, equipaggiamento marittimo, interoperabilità del sistema ferroviario e altro.
La differenza fondamentale è che per i prodotti della seconda categoria l’AI Act si applica in modo molto più restrittivo, poiché sono già regolamentati da agenzie e sistemi di omologazione specializzati, come ad esempio l’Agenzia dell’Unione europea per la sicurezza aerea (EASA) per il settore aereo.
Al contrario, per il primo gruppo si adotta una logica che porta alla marcatura CE, offrendo alle imprese certezza giuridica e prevedibilità, e ai consumatori una sicurezza negli acquisti. Un sistema ben noto alle aziende, che garantisce regole chiare e uniformi per tutti. Per raggiungere questo obiettivo si ricorre a standard europei che traducono in requisiti tecnici le disposizioni legislative.
La proposta della Commissione modificherebbe radicalmente la situazione: le due categorie verrebbero unificate e tutti i prodotti sarebbero soggetti a un unico regime, quello basato sulle normative settoriali. In pratica, per settori come i giocattoli o i dispositivi medici, Bruxelles interverrebbe direttamente, caso per caso: le direzioni generali competenti (DG GROW per l’industria, DG SANTE per la salute) dovrebbero emanare nuove normative sull’intelligenza artificiale da integrare nelle dodici leggi settoriali coinvolte, attraverso atti delegati della Commissione.
Chi sostiene questa soluzione la presenta come un atto di buon senso: regole personalizzate per ciascun settore, integrate nelle normative già note alle imprese. L’argomento ha una sua logica apparente, ma ci sono almeno tre criticità significative.
Primo: chi redigerà le regole? Attualmente, le norme tecniche dettagliate vengono elaborate presso gli enti europei di normazione, come il Cen-Cenelec. Nel processo di stesura, l’industria partecipa attraverso i propri esperti. Non agisce da sola. Anche la società civile è fortemente rappresentata grazie a ricercatori indipendenti, piccole e medie imprese, associazioni di consumatori e lavoratori. Con il nuovo approccio, la Commissione diventerebbe un attore autonomo. Per le aziende, ciò comporterebbe una perdita di controllo sui dettagli tecnici.
Secondo: quali sono i tempi? Per questi atti delegati non è prevista alcuna scadenza. Nessuna impresa sa attualmente quando arriveranno le nuove regole per il proprio settore, né se arriveranno affatto. Nel frattempo, gli standard tecnici su cui l’industria ha lavorato per anni sono ormai quasi pronti. Il risultato è un paradosso: una riforma presentata come semplificazione rischia di generare l’effetto opposto, lasciando le aziende in un limbo normativo a tempo indeterminato.
Terzo: in che misura il quadro normativo rischia di frammentarsi? Non si tratta di un rischio teorico. È una conseguenza diretta della costruzione della riforma. Attualmente, gli enti di normazione europei stanno sviluppando un pacchetto di standard comuni per tutti i settori coperti dall’AI Act: gestione del rischio, cybersicurezza, affidabilità dei sistemi, qualità dei dati. Questi standard funzionano proprio perché sono applicabili a tutti allo stesso modo.
Ed è su questa uniformità che si basa un meccanismo fondamentale dell’AI Act: chi rispetta le norme armonizzate è automaticamente considerato conforme, senza dover dimostrare la conformità prodotto per prodotto. Se oggi i settori del primo gruppo (giocattoli, dispositivi medici, macchinari e altri) escono da questo sistema, quel riconoscimento automatico non sarà più valido per loro. Al suo posto, le aziende si troveranno di fronte a dodici atti delegati, redatti da direzioni generali diverse della Commissione, in tempi diversi, senza alcuna garanzia di coordinamento tra di essi. Il risultato prevedibile: regole disomogenee da un settore all’altro, concorrenza distorta e costi di adeguamento notevolmente più elevati, soprattutto per le imprese che operano in più comparti contemporaneamente.
L’Italia presenta una struttura produttiva fortemente orientata verso la manifattura avanzata, con un tessuto di PMI attive in settori come la meccanica, i macchinari, i dispositivi medici e l’automazione industriale.
Gli interessi di queste imprese non coincidono con quelli dei grandi gruppi industriali tedeschi che hanno sostenuto questa soluzione. Pertanto, appoggiare la posizione del Parlamento non è nell’interesse dell’industria italiana. Il negoziato sull’AI Omnibus si trova in una fase cruciale. L’accordo avrebbe dovuto essere raggiunto martedì scorso, ma l’insistenza tedesca e del Parlamento ha bloccato le trattative e un nuovo tentativo verrà effettuato a breve.
Le associazioni di categoria italiane dovrebbero farsi sentire a Bruxelles. La posta in gioco non è un dettaglio burocratico: è l’intero sistema di governance europea dell’intelligenza artificiale per la manifattura che è a rischio. E in questa situazione, l’industria italiana potrebbe subire gravi conseguenze, se accetta l’idea che “semplificare” significhi togliere la penna di mano agli ingegneri e ai tecnici di settore per consegnarla ai funzionari europei.
*
Il testo pubblicato è un open-ed scritto da:
- Laura Caroli (esperta di AI Act).
- Enrico Panai, professore dell’Università Cattolica del Sacro Cuore di Milano.
- Luca Nannini PhD e esperto senior in politiche e standard di intelligenza artificiale.
- Piercosma Bisconti, dottorato di ricerca in Filosofia della tecnologia.
I commenti sono chiusi.