Come fanno i colossi dell’IA a fare soldi (e cosa promettono per farne sempre di più)

Come fanno i colossi dell’IA a fare soldi (e cosa promettono per farne sempre di più) 1

Il Ceo di Nvidia Jensen Huang durante il suo keynote del CES 2025 a Las Vegas 

Esiste una miniera. C’è la certezza che ci sia qualcosa di prezioso sotto la superficie. Alcune pepite sono già emerse e sono state vendute. Tuttavia, attualmente, le vere entrate vanno alle aziende che producono gli strumenti da scavo, come picconi, pale e secchi. Rielaborando una metafora piuttosto comune riguardo alla ricerca dell’oro nell’ambito dell’Intelligenza Artificiale, si potrebbe descrivere così la situazione economica attuale che circonda questo settore.

Certamente, questa è una rappresentazione un po’ semplificata. Il settore minerario non ha sviluppato un mercato così sofisticato di pubblicità, consulenti, esperti, analisti e venditori di diverse categorie e livelli, come quello dell’IA. Tuttavia, se si modificano alcuni termini in gioco, le aziende che realizzano i modelli (OpenAI, Anthropic) stanno ancora cercando di trovare la strada verso la redditività, tra variabili attualmente non completamente controllabili come i costi di produzione e le spese energetiche.

Nel frattempo, le aziende che costruiscono l’infrastruttura necessaria, come chip e servizi cloud (Nvidia, Oracle, ma anche Microsoft e Google), e quelle in grado di proporre soluzioni specifiche per le imprese, risparmiando sui costi di produzione (in termini di lavoro umano), hanno già trovato la loro strada. Ogni azienda che opera nel settore dell’IA, a qualsiasi livello, è un caso a sé. Ognuna ha il proprio modello e progetto. Tutte necessitano di raccogliere miliardi per coprire i costi di produzione. Tuttavia, solo poche hanno raggiunto il break-even, il punto di pareggio, che è attualmente il parametro più osservato dai CFO (Chief Financial Officer) per distinguere le aziende solide e i modelli validi da potenziali bolle speculative. Intanto, queste aziende attraggono investimenti e raggiungono valutazioni plurimiliardarie. Non per ciò che fanno, ma per la promessa di ciò che realizzeranno in futuro. E gli investitori sono ormai troppo coinvolti per non crederci più.

Come riescono queste aziende a raggiungere valutazioni enormi

Bolla. Un termine ricorrente. Che compare sempre più frequentemente nelle analisi di questo inizio 2026. L’anno in cui potrebbe esplodere la bolla dell’IA. Ipotesi. Spesso dettate più dalla paura e dalla voglia di generare notizie sensazionali che dalla realtà. Ma cosa dice la realtà? Come fanno queste aziende a generare profitti? E come prevedono di farlo in futuro?

Tra speranze e aspettative, attualmente per gli analisti la situazione appare piuttosto incerta. Il clima è in qualche modo riassunto bene nell’analisi pubblicata lo scorso dicembre sull’Harvard Business Review da Andy Wu. E si esprime così: anche se la promessa dell’IA è chiara, il ritorno sugli ingenti investimenti effettuati resta incerto.

“Il problema è che oggigiorno l’IA generativa ha costi elevati e ricavi limitati”. Abbonamenti e pubblicità non sono sufficienti a coprire l’enorme quantità di dati, energia e costi necessari per generare un’immagine divertente o una risposta ben scritta. Ma questo riguarda principalmente le aziende che producono (e vendono) modelli, come OpenAI e Anthropic. Mentre chi fornisce infrastrutture e strumenti per creare i modelli sta prosperando. Fino a che punto sia difficile dirlo.

OpenAI, il centro di gravità dell’IA troppo grande per fallire

OpenAI è l’azienda che ha idealmente avviato la corsa all’IA. Novembre 2022. Il suo modello di IA generativa, , ha riscosso un enorme successo in termini di utenti. Ha battuto ogni record di download e acquisizione di utenti. OpenAI è il fulcro del settore. Eppure, la sua posizione sembra la più instabile.

OpenAI ha una valutazione di 500 miliardi, ma registra perdite e, secondo Bloomberg, prevede di esaurire la cassa per 115 miliardi entro il 2029. Per sopravvivere, ha bisogno di continui aumenti di capitale. Nuovi investimenti da parte di fondi e aziende. Le entrate derivanti dagli abbonati (35 milioni a gennaio 2026, con l’obiettivo di raggiungere 220 entro il 2030, con piani di abbonamento compresi tra 20 e 200 dollari) non sono più sufficienti.

La sfida principale del 2026: attrarre talenti

Negli ultimi mesi, l’azienda ha cercato di verticalizzare la propria offerta, lanciando ChatGPT Enterprise e soluzioni specifiche per il settore sanitario, e sta tentando di ridurre la propria dipendenza da Nvidia progettando chip in collaborazione con Broadcom. La principale sfida per il 2026, come riporta Bloomberg, riguarda anche la retention dei talenti. In fuga verso startup o verso progetti personali. Ma è importante anche valutare la gestione della partnership con Microsoft, che da alleato fedele si è trasformato in un concorrente ambiguo.

OpenAI è oggi un “too big to fail” dell’intelligenza artificiale: la sua sopravvivenza dipende dalla capacità di dimostrare agli investitori che la strada verso l’AGI (Intelligenza Generale) porterà a un ritorno economico tale da giustificare investimenti che ormai superano il prodotto interno lordo di intere nazioni.

Anthropic e il modello ‘infrastruttura critica’

Anthropic, fondata da Dario Amodei, affronta sfide simili a quelle di OpenAI. Hanno un modello e un prodotto che condividono terreno e radici (Amodei è un ex dipendente di OpenAI, che ha scelto di cambiare direzione per motivi ‘etici’, perlomeno non era completamente convinto dell’‘etica’ di OpenAI).

Basata sulla “Constitutional AI”, l’azienda ha cercato di dimostrare nel 2025 e nel 2026 che la sicurezza non è un ostacolo alla potenza, ma un vantaggio competitivo. Attualmente vale 190 miliardi. Il suo modello Claude 3.5 Sonnet e i successivi hanno ridefinito le capacità di ragionamento logico e analisi documentale, diventando lo standard per i settori legale, farmaceutico e finanziario, dove un errore può costare milioni.

Un capolavoro di equilibrismo politico e commerciale

La strategia di Anthropic è un capolavoro di equilibrismo geopolitico e commerciale. Diverse analisi lo confermano e il quadro è ben descritto nel report McKinsey sull’IA generativa del 2025. Pur essendo finanziata massicciamente da Amazon (oltre 4 miliardi) e Google, ha mantenuto un’autonomia che le consente di servire i clienti di entrambi i fornitori di cloud tramite Bedrock (il servizio di IA generativa di Amazon AWS) e Vertex AI (piattaforma di machine learning e IA generativa di Google). Questo modello di “IA come infrastruttura critica” le ha permesso di espandersi rapidamente senza dover costruire una propria rete di distribuzione globale. Perché infrastruttura critica? Qui si concentra gran parte del lavoro di Anthropic.

L’IA non più come chatbot e applicazioni consumer, ma come motore decisionale, un livello cognitivo indispensabile in prodotti per la finanza, la sanità, la ricerca scientifica, la difesa e la pubblica amministrazione. Di fatto, un’infrastruttura. Che guadagna quasi esclusivamente vendendo questi ‘livelli’ a aziende (B2B), che pagano per token con prezzi differenziati: più avanzato e preciso è il modello, maggiore è il costo. Ulteriori ricavi provengono dai modelli utilizzati da Amazon e Google: quando un’azienda utilizza Claude tramite i loro servizi, una quota viene destinata ad Anthropic.

Mentre tutte le aziende (inclusa la francese Mistral) stanno sperimentando il modello pay-to-consume (o consumption-based pricing). Diventato nel 2026 lo standard per chiunque venda “intelligenza” sotto forma di componente grezza o servizio scalabile. A differenza degli abbonamenti fissi (Software as a service classico), qui si paga solo per l’effettivo utilizzo energetico o di calcolo. Se l’IA risolve il problema al posto di un umano, si paga il servizio. Altrimenti no.

Meta, profitti dall’IA senza vendere IA

Meta rappresenta un po’ il collante tra diversi mondi. E per molti è l’azienda che al momento nasconde il potenziale più alto di tutti. Meta ha abbracciato l’IA dopo il fallimento del Metaverso (è di oggi la notizia del taglio di migliaia di dipendenti nel settore identificato come la stella polare di un nuovo corso mai del tutto iniziato). Ora si concentra su un’IA pragmatica. Meta non vende IA. Ma utilizza l’IA per potenziare il suo vero business. “We run ads”. Vendiamo pubblicità, per citare lo stesso Zuckerberg al Congresso .

La strategia di Mark Zuckerberg è diversa: rendere pubblici i suoi modelli, come Llama, per ridurre il vantaggio dei concorrenti che fanno pagare l’accesso all’IA. In questo modo, molte startup e aziende costruiscono i loro sistemi su Llama, invece di dipendere da servizi a pagamento come quelli di OpenAI. Meta guadagna non vendendo i modelli. Ma usando l’IA per migliorare i suoi prodotti principali. Su WhatsApp e Messenger, l’intelligenza artificiale consente alle piccole imprese di automatizzare l’assistenza clienti e le vendite, trasformando le chat in veri canali commerciali. Questo rafforza l’utilizzo delle piattaforme di Meta e genera nuovi ricavi attraverso i servizi business.

Gli occhiali intelligenti con Luxottica

In aggiunta, c’è l’impatto su prodotti specifici come gli occhiali smart. Oggi è stata annunciata da Meta e Luxottica l’intenzione di raddoppiare la produzione. Un esempio perfetto di integrazione tra IA e mondo fisico, uno dei macro trend previsti all’inizio dell’anno. Il 2026, l’anno in cui l’IA diventerà una realtà concreta. Da non dimenticare un ultimo aspetto. I data center. Nonostante una spesa in conto capitale (Capex) che ha superato i 50 miliardi di dollari all’anno per costruire data center proprietari, gli investitori continuano a premiare Meta per la sua capacità di generare flussi di cassa attraverso l’ottimizzazione pubblicitaria assistita dall’IA (Advantage+). Una vera gallina dalle uova d’oro. E senza bisogno di troppi picconi. Resta il rischio dell’alto costo energetico e della pressione normativa. L’Europa non smette di accendere fari sull’uso dei dati degli utenti per l’addestramento.

Google, la rincorsa riuscita a OpenAI e altri

Un tempo si pensava che Google fosse in ritardo nello sviluppo dell’IA. Oggi molti credono che, se ci sarà un vincitore, e dovesse essere un unico vincitore nel lungo termine, questo debba trovarsi dalle parti di Mountain View. Gli analisti di Bloomberg hanno definito la sua strategia “difesa aggressiva”.

In risposta alla minaccia di OpenAI, l’azienda ha trasformato Gemini in un sistema multimodale onnipresente. Attualmente i dati indicano che la rincorsa a ChatGPT è stata completata. Gli utenti sono in aumento e i bilanci più solidi (Google fattura 300 miliardi l’anno, un terzo in media è utile netto). Il vantaggio competitivo di Google nel 2026 non risiede solo nel software, ma nel pieno controllo della tecnologia: grazie alle sue TPU (Tensor Processing Units) di sesta generazione, Google può eseguire i propri modelli a un costo variabile drasticamente inferiore rispetto a chiunque altro.

Da rincorrere a guida, Google copre tutto

Questo le consente di offrire versioni potenti dell’IA gratuitamente o a prezzi molto competitivi all’interno dell’ecosistema Android e Workspace. A discapito di modelli di business a pagamento, come quelli di OpenAI. YouTube è una miniera all’interno della miniera di Mountain View. L’addestramento sui dati video ha conferito a Gemini una comprensione dei contesti fisici e delle interazioni umane che i modelli puramente testuali faticano a replicare. Provare Gemini per credere.

Tuttavia, Google deve affrontare l’evoluzione del modello pubblicitario tradizionale: per compensare la perdita di clic nella ricerca, sta puntando tutto sugli “Shopping Agent” e sull’integrazione dell’IA nel commercio elettronico.

Microsoft e l’infrastruttura di calcolo totale

Per la prima volta si sente parlare di Microsoft e IA quando l’azienda annuncia il massiccio investimento in OpenAI. Un miliardo, poi dieci. Ma è solo un tassello di una partita più ampia, dove Redmond si è mossa con la destrezza di chi controlla i canali di distribuzione della tecnologia stessa. La sua strategia non riguarda più solo l’integrazione di modelli linguistici vari in Windows e Office, ma la creazione di un’infrastruttura di calcolo totale.

Qualche esempio? Azure è diventata la “nuvola dell’IA” per eccellenza, non solo ospitando OpenAI ma integrando nativamente modelli open source e proprietari per offrire la massima flessibilità alle aziende. Per proteggere i propri margini, Microsoft ha accelerato la produzione dei propri chip Maia e Cobalt, cercando di ridurre il “tributo” versato a Nvidia (ancora, l’IA come questione riguardante chi produce gli strumenti). I profitti dall’IA provengono da abbonamenti per aziende, servizi cloud e verticali. Anche in questo caso, non vende direttamente IA, ma offre prodotti che incorporano la sua IA.

Energia, infrastruttura, software

Sul fronte energetico, Microsoft è diventata un attore politico, riattivando reattori nucleari (leggasi, Three Mile Island, Pennsylvania, con l’aiuto dell’amministrazione ) per alimentare i suoi enormi cluster, una mossa necessaria per garantire la continuità del servizio in un mondo affamato di gigawatt. Nonostante la concorrenza di Google e Meta, la forza di Microsoft risiede nel suo ingresso inarrestabile nei processi aziendali.

Una volta che un’impresa ha automatizzato il proprio flusso di lavoro con Copilot, i costi di cambiamento diventano proibitivi. Il principale rischio è, come è ovvio, l’antitrust. E Microsoft ne è consapevole.

Musk e xAI, l’outsider diventato leader

Se fino ad ora ci si è mossi nel piano liscio e prevedibile delle aziende tradizionali, ora ci si sposta sul terreno accidentato dell’outsider per eccellenza. E per affrontarlo serve un fuoristrada, meglio ancora, un Cybertruck. xAI di Elon Musk è l’azienda che ha cambiato le regole del gioco puntando sulla velocità e sulla massa critica. Nel 2026, l’azienda è diventata il punto di riferimento per l’IA “non filtrata” e legata al mondo fisico. Il supercomputer Colossus a Memphis, con le sue centinaia di migliaia di GPU, ha consentito a Musk di bruciare le tappe, portando Grok-3 e Grok-4 a competere direttamente con i leader del settore. Tutto realizzato in tempi record. Tra polemiche, licenze politiche e scorrettezze. Ma Musk ci è riuscito.

Tesla, Optimus e il piccone intelligente

La vera forza di xAI risiede nella sua stretta connessione con l’impero Musk. Non c’è nulla che xAI realizzi che non sia utile per Tesla, X, SpaceX. L’IA di Musk non serve solo a rispondere alle domande degli utenti su X, ma a guidare le auto Tesla e, soprattutto, a fornire un “cervello” ai robot umanoidi Optimus. Questa focalizzazione sulla “IA del mondo reale” distingue xAI da tutti gli altri concorrenti, che rimangono confinati nel mondo digitale di testi e immagini. Il modello di business di xAI è ibrido: abbonamenti premium su X e licenze tecnologiche verso Tesla. Musk è convinto che la capacità di un’IA di navigare nello spazio fisico e manipolare oggetti sia infinitamente più preziosa di un chatbot che scrive poesie.

Nonostante le polemiche sulla sicurezza e sulla mancanza di filtri etici, xAI ha attirato enormi capitali da investitori che credono nella “visione ingegneristica” di Musk. Il rischio è legato alla volatilità del suo fondatore e alle possibili sanzioni normative per

Lascia una risposta

L'indirizzo email non verrà pubblicato.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More