Le imposte e la settimana lavorativa ridotta saranno sufficienti a contrastare le conseguenze della superintelligenza?
Leggi in app
OpenAI, l’impresa che ha sviluppato ChatGpt, ha elaborato una roadmap che propone alcune indicazioni per attenuare gli effetti delle IA sulla società e orientare le democrazie verso un futuro in cui superintelligenze supporteranno gli esseri umani.
Il documento, intitolato “Industrial Policy for the Intelligence Age: Ideas to Keep People First”, acquista un significato particolare se si considera che, il 20 marzo scorso, la Casa Bianca ha reso pubblico un quadro normativo nazionale sull’IA, sollecitando il Congresso a trasformarlo in legge, avviando così dibattiti e posizioni che stanno creando divisioni sia nella Camera dei rappresentanti che nel Senato.
L’amministrazione Trump sta cercando di rafforzare il supporto per politiche tecnologiche favorevoli alle imprese, e OpenAI si inserisce con forza nel dibattito.
È necessario fare una prima osservazione: nel febbraio 2026, Anthropic, rifiutando la richiesta del Pentagono di utilizzare modelli di IA senza restrizioni, ha alterato l’equilibrio secondo cui spetterebbe agli organi statali e governativi vigilare affinché le aziende private rispettino regole etiche, e non viceversa.
Oggi, OpenAI, un’altra impresa privata, indica al governo come dovrebbe agire riguardo a politiche fiscali, sociali e del lavoro.
Un fondo pubblico
OpenAI auspica la creazione di un fondo pubblico nazionale finanziato in parte dai contributi delle aziende di IA, destinato a investire in società tecnologiche, per poi redistribuire i profitti ai cittadini.
Il modello di riferimento è l’Alaska Permanent Fund, un fondo sovrano istituito nel 1976 dallo Stato dell’Alaska per gestire e investire una parte dei proventi derivanti dal petrolio, versando i profitti ai cittadini, una cifra che per il 2026 ammonta a mille dollari all’anno e varia in base alle performance del fondo stesso.
Un’opinione simile è già stata espressa nel 2025 da Vinod Khosla, fondatore di Khosla Ventures e primo investitore istituzionale di OpenAI, che ha suggerito al governo di acquisire il 10% di tutte le aziende quotate in borsa per redistribuire i dividendi agli americani.
Tassare i capitali
Spostare il carico fiscale dal lavoro al capitale, poiché, secondo OpenAI, la crescita guidata dalle IA potrebbe erodere il gettito necessario a finanziare il sistema pensionistico, quello sanitario e vari ammortizzatori sociali.
OpenAI propone quindi imposte più elevate sui redditi societari e sui rendimenti legati all’IA, allineandosi nuovamente con le idee di Khosla, il quale sostiene che gli Stati Uniti dovrebbero abolire l’imposta federale sui redditi inferiori ai 100mila dollari l’anno (circa 86.500 euro).
Khosla ha una visione pessimistica del futuro e teme che l’80% dei posti di lavoro potrebbe scomparire entro il 2030, un evento che, a suo avviso, potrebbe compromettere la politica americana.
Per il miliardario, insomma, l’IA avvantaggerà il capitale e svantaggerà il lavoro, ed è proprio dal capitale che il governo dovrà ottenere gettito.
Il senatore indipendente (ma vicino ai Democratici) Bernie Sanders condivide il pessimismo di Khosla, convinto che le IA elimineranno circa 100 milioni di posti di lavoro negli Stati Uniti, pur essendo più favorevole all’introduzione di una “robot tax” a carico delle aziende che sostituiscono i lavoratori.
Anche l’idea di Sanders non è del tutto inedita e trova supporto nel parere di Bill Gates, il quale è convinto che robot e lavoratori umani debbano essere tassati allo stesso modo. Il fondatore di Microsoft si è espresso in tal senso nel 2017 – quindi prima che le IA diventassero ampiamente diffuse – ricevendo le critiche di molti economisti – convinti che i carichi fiscali siano nemici dell’innovazione.
Tuttavia, esistono profonde divergenze tra Sanders e OpenAI. Per il primo, infatti, la transizione non può essere guidata da aziende private.
La settimana corta e i benefit aziendali
Lavorare meno per lo stesso stipendio. OpenAI propone una settimana lavorativa di quattro giorni senza riduzioni salariali, chiedendo alle aziende di aumentare anche i contributi pensionistici e di coprire una quota maggiore dei costi sanitari.
In questi ambiti OpenAI fa leva sulla responsabilità delle aziende e meno su quelle governative, sulle quali però grava la necessità di stabilire sistemi per monitorare gli effetti delle IA sull’occupazione, attivando misure proporzionali al tasso di disoccupazione.
Gli scenari estremi come leva politica
Il documento di OpenAI si apre e si chiude citando scenari di trasformazione radicale nei quali si prospetta la possibilità che, entro pochi anni, si arrivi a una superintelligenza capace di ristrutturare l’intera economia e nei quali, non di meno, emerge il rischio che la Cina domini il mondo se non sarà l’America a conquistarla per prima.
Proiezioni non supportate da dati certi che generano un senso di urgenza tale da sacrificare le necessarie cautele regolatorie.
L’American Enterprise Institute, centro di studi su economia e lavoro, sostiene posizioni opposte a quelle di OpenAI e di Bernie Sanders, affermando che non ci sono evidenze di una massiccia sostituzione di posti di lavoro.
Il paradosso è evidente: OpenAI e Sanders delineano scenari catastrofici per giustificare le rispettive agende politiche.
Per OpenAI sono necessari meno ostacoli e più sussidi, mentre il senatore indipendente auspica maggiori regolamentazioni e protezioni per i lavoratori.
Il conflitto d’interessi
OpenAI è un’azienda che sviluppa e produce le tecnologie di cui elenca i rischi. Voler assumere il ruolo di comprimaria nel proporre soluzioni è – nel migliore dei casi ipotizzabili – una strategia per influenzare la regolamentazione prima che questa imponga norme che le sono sfavorevoli.
Inoltre, è opportuno notare che OpenAI si sta preparando a una IPO, ha concluso un round di finanziamento privato da 122 miliardi di dollari e ha acquisito un talk show con l’intento di esercitare un certo controllo sulla narrazione mediatica riguardante il fenomeno delle IA.
Non va dimenticato che la sua struttura ibrida (no-profit e for-profit) è oggetto di attenzione politica e mediatica, così come lo è il Ceo Sam Altman, la cui immagine è messa in discussione e sembra poco compatibile con quella di un’azienda che desidera ritagliarsi un ruolo nella governance delle IA.
Il documento di OpenAI non risolve la questione centrale. Non chiarisce con quale legittimità le IA, così pervasive, possano essere governate da chi ha il maggiore interesse economico nello svilupparle in modo pressoché incontrollato.
I commenti sono chiusi.