Leggi in app
Il 4 maggio scorso, Anthropic ha reso nota la formazione di una joint venture con Blackstone, Hellman & Friedman e Goldman Sachs per introdurre Claude nelle aziende. Andrea Pezzi ha inviato un commento, che riceviamo e pubblichiamo.
Esiste un modo semplice, quasi confortante, di discutere di intelligenza artificiale: considerarla come un software innovativo. Un utensile. Una macchina più rapida per redigere una mail, tradurre un documento, riassumere una riunione, preparare un’offerta. Questa definizione è corretta, ma ormai non è più sufficiente. L’IA non si limita più a supportare le aziende nel migliorare la loro operatività. Sta penetrando nel processo decisionale delle aziende stesse.
Il cambiamento è avvenuto sotto gli occhi di tutti, ma con la discrezione tipica delle grandi trasformazioni industriali. Il 4 maggio, Blackstone ha annunciato, insieme ad Anthropic, Hellman & Friedman e Goldman Sachs, la creazione di una nuova società di servizi enterprise per integrare Claude nelle operazioni quotidiane delle imprese. Il comunicato menziona una struttura autonoma, con risorse ingegneristiche e collaborazioni di Anthropic direttamente nel team, e una rete di investitori in grado di raggiungere centinaia di aziende partecipate. Questo è un dettaglio tecnico solo in apparenza. In realtà, rappresenta un punto cruciale: l’intelligenza artificiale non è più venduta solo come prodotto, ma come infrastruttura per l’adozione.
Quando una tecnologia si diffonde attraverso i canali del capitale, della consulenza e delle reti industriali, non entra più una licenza alla volta. Entra in blocchi. Si insinua nei portafogli di fondi, nelle grandi aziende, nelle catene di fornitura, negli ospedali, nelle banche, nelle assicurazioni, negli studi legali, nei sistemi di credito, nelle risorse umane. E quando si integra nei flussi di lavoro, non si limita a generare output: inizia a modellare i criteri decisionali.
Per l’Italia, questo argomento è particolarmente sensibile. Il nostro sistema produttivo non è composto solo da grandi gruppi. È costituito da distretti, artigiani avanzati, manifattura specializzata, aziende familiari, studi professionali, fornitori verticali, imprese che hanno costruito il proprio vantaggio competitivo su conoscenze tacite, relazioni, procedure, dettagli e esperienza accumulata. Gran parte di questo sapere non è registrato nei brevetti. Non è presente nei bilanci. Non è tutelato da un ufficio legale. Esiste nei documenti, nei preventivi, nei contratti, nei listini, nei capitolati, nei processi, nei piccoli trucchi del mestiere che fanno la differenza tra un’azienda qualunque e una che sa svolgere bene il proprio lavoro.
Immaginiamo ora che tutto questo venga, giorno dopo giorno, trasferito in chat, agenti, sistemi di retrieval, strumenti di produttività, ambienti di sviluppo, estensioni per browser, piattaforme di automazione. Una PMI carica un capitolato per ricevere assistenza nella risposta a una gara. Uno studio professionale inserisce un contratto. Un’azienda manifatturiera fa analizzare una procedura tecnica. Un commerciale utilizza l’IA per migliorare un’offerta. Un manager carica una strategia. Ogni singolo atto sembra innocuo. Tuttavia, nel complesso, potrebbe trasformarsi in un trasferimento silenzioso di know-how. Non si tratta solo di privacy. La privacy protegge le persone. Qui stiamo affrontando qualcosa di diverso: il sapere produttivo di un Paese. Chi controlla l’infrastruttura IA può osservare, indicizzare, classificare, trasformare, riassumere, valutare, incorporare schemi e utilizzare tali materiali per migliorare prodotti, modelli, benchmark, servizi o sistemi concorrenti. Anche quando un contenuto non entra formalmente nel training del modello, può contribuire a creare un vantaggio informativo. E questo è il punto che la normativa attuale non riesce ancora a cogliere adeguatamente.
L’Europa ha compiuto un passo significativo con l’AI Act. Ha scelto una regolamentazione basata sui livelli di rischio, ha previsto obblighi per i modelli generali, ha imposto trasparenza e responsabilità. Ma l’AI Act non risolve ogni problema. Non afferma con sufficiente chiarezza che il know-how industriale conferito a un sistema IA deve rimanere riservato per presunzione. Non disciplina in modo specifico prompt, flussi di lavoro, agenti, embedding, knowledge base, logiche decisionali e dati di inferenza. Non limita adeguatamente il rischio che le imprese paghino un servizio e, contemporaneamente, forniscano il carburante informativo che renderà quel servizio sempre più capace di sostituirle.
La prima regola dovrebbe essere semplice: tutto ciò che un’impresa, un professionista, un ente di ricerca o una pubblica amministrazione conferisce a un sistema di intelligenza artificiale nell’ambito della propria attività si presume riservato. Non solo le PMI. Tutte le imprese, indipendentemente dalla loro forma e dimensione.
È giusto prevedere una tutela rafforzata per chi non ha forza contrattuale, ma il principio deve valere per tutti: il dato aziendale non diventa materia prima gratuita solo perché è stato caricato in una finestra di chat.
La seconda regola è il no-training by default. Se un fornitore desidera utilizzare contenuti aziendali per addestrare, perfezionare, valutare, distillare o migliorare un modello, deve richiedere un consenso separato, chiaro, revocabile, non nascosto nelle condizioni generali. E se quel know-how ha valore, il tema della remunerazione non può essere un tabù. Il sapere industriale non è una risorsa naturale da estrarre. È lavoro accumulato.
La terza regola riguarda il riciclaggio tecnico del sapere. Non è sufficiente vietare il training diretto, poiché esistono molti modi per aggirare il divieto: embedding, sintesi, classificazioni, dati aggregati, benchmark, fine-tuning indiretto, distillazione. È necessaria una norma contro quello che potremmo definire model laundering: non importa il nome tecnico dell’elaborazione, se l’effetto sostanziale è estrarre valore competitivo dal contenuto di un’impresa, quel valore non può essere riutilizzato senza autorizzazione.
La quarta regola è la portabilità. Le aziende devono poter cambiare fornitore senza perdere ciò che hanno costruito: prompt, flussi di lavoro, agenti, integrazioni, database vettoriali, policy, strumenti, logiche decisionali. Il vero lock-in non deriva dal modello in sé. Nasce da diciotto mesi di integrazioni accumulate all’interno di una piattaforma chiusa. Se non puoi portare via il tuo modo di lavorare, non sei più un cliente. Sei diventato dipendente.
Da qui scaturisce un principio ancora più rilevante: la sovranità del workflow. Lo Stato, le banche, gli ospedali e le imprese strategiche non devono necessariamente sviluppare autonomamente ogni modello. Sarebbe ingenuo. Ma devono possedere e controllare il livello in cui il modello è collegato ai processi reali: permessi, strumenti, audit log, prompt library, policy, integrazioni, dati di inferenza. Il modello può anche essere estero; il sistema nervoso operativo deve rimanere ispezionabile, sostituibile e, quando necessario, italiano o europeo.
valutazione. Non possiamo più accettare che chi sviluppa, chi vende, chi integra e chi certifica appartengano allo stesso ecosistema. In finanza, farmaceutica, aviazione, energia e alimentare nessuno si fiderebbe di un sistema in cui il soggetto regolato produce da solo le prove della propria sicurezza. Perché dovremmo farlo con sistemi che influenzano i processi decisionali di banche, ospedali, ministeri e imprese critiche? È necessario un accesso ispettivo, una valutazione indipendente, un corpus di test nazionale, un registro dei sistemi decisionali e una responsabilità umana non delegabile.
Infine, c’è una questione più invisibile, ma non meno concreta: il calcolo (compute). I servizi IA saranno sempre più ibridi. Una parte nel cloud, una parte sul dispositivo dell’utente, una parte nel browser, una parte all’interno di agenti locali. Se un servizio utilizza CPU, GPU, NPU, RAM, batteria, banda o storage dell’utente, deve comunicarlo. E se il prezzo è giustificato come costo di compute, il consumatore e l’impresa devono sapere dove avviene quel compute e chi lo paga realmente. L’utente non può essere contemporaneamente cliente, fonte di dati, produttore di know-how e infrastruttura computazionale gratuita.
Questa non è una battaglia contro l’intelligenza artificiale. È esattamente il contrario. Un Paese che desidera utilizzare realmente l’IA deve impedire che l’adozione diventi dipendenza. Deve poter dire sì, ma anche no. Deve poter cambiare fornitore. Deve poter ispezionare. Deve poter proteggere il proprio sapere. Deve costruire, almeno per i settori critici, una capacità nazionale o europea di fallback. Non per chiudersi, ma per non essere rinchiuso all’interno dell’infrastruttura di qualcun altro.
La politica spesso arriva in ritardo rispetto alle tecnologie. Qui non può permetterselo. Perché l’IA non entra nelle imprese come un software qualsiasi. Entra come criterio di decisione. E quando una tecnologia determina come si lavora, come si valuta il rischio, come si concede credito, come si seleziona personale, come si cura un paziente, come si interpreta una norma, allora non stiamo più parlando solo di innovazione.
Stiamo discutendo di sovranità.
La formula può sembrare severa, ma è corretta: le imprese italiane non possono pagare per insegnare all’intelligenza artificiale come diventare concorrente del loro stesso know-how. Se l’Italia desidera rimanere competitiva, deve tutelare il proprio sapere produttivo prima che venga trasformato, silenziosamente, in un servizio offerto da altri.
Le cinque regole minime
- No-training by default sui contenuti aziendali, professionali e istituzionali.
- Presunzione generale di riservatezza per tutte le imprese, non solo per le PMI.
- Portabilità obbligatoria di dati, prompt, workflow, embedding, agenti e knowledge base.
- Audit indipendente e accesso ispettivo per sistemi IA nei settori critici.
- Trasparenza computazionale: sapere dove avviene il calcolo e chi lo paga.