Come fanno i colossi dell’IA a fare soldi (e cosa promettono per farne sempre di più)

Come fanno i colossi dell’IA a fare soldi (e cosa promettono per farne sempre di più) 1

Il Ceo di Nvidia Jensen Huang durante il suo keynote del CES 2025 a Las Vegas 

Esiste una miniera. È evidente che ci sia qualcosa di prezioso all’interno. Alcune pepite sono già state estratte e vendute. Tuttavia, attualmente le vere fortune si stanno accumulando da parte delle aziende che producono gli strumenti per scavare: picconi, pale e secchi. Utilizzando una metafora ben nota sul boom dell’Intelligenza Artificiale, si potrebbe descrivere così la situazione attuale del mercato che ruota attorno a questo settore.

Naturalmente, è un ritratto un po’ semplificato. Il settore minerario non ha sviluppato un mercato così complesso di pubblicità, consulenze, esperti, analisti e venditori a vari livelli come quello dell’IA. Tuttavia, se si modificano alcuni termini, le aziende che creano i modelli (OpenAI, Anthropic) stanno ancora cercando la strada verso la redditività, affrontando variabili come i costi di produzione e quelli energetici, che al momento non sono completamente sotto controllo.

Nel frattempo, le aziende che forniscono l’infrastruttura necessaria, come chip e cloud (Nvidia, Oracle, ma anche Microsoft e Google) e quelle in grado di offrire soluzioni specifiche per le imprese, per aiutarle a ridurre i costi di produzione (in termini di lavoro umano) hanno già trovato il loro percorso. Ogni azienda che lavora nell’IA, a qualsiasi livello, è un caso a sé. Ognuna ha il proprio modello e progetto. Tutte necessitano di raccogliere miliardi per sostenere i costi di produzione. Ma solo alcune, al momento, hanno raggiunto il break-even, il punto di pareggio, il parametro più monitorato dai CFO (Chief Financial Officer) per distinguere le aziende solide e i modelli robusti da potenziali bolle speculative. Nel frattempo, queste aziende raccolgono investimenti e raggiungono valutazioni plurimiliardarie. Non per quello che attualmente fanno, ma per la promessa di ciò che realizzeranno in futuro. E gli investitori, ormai, sono troppo esposti per non crederci più.

Come riescono queste aziende a ottenere valutazioni astronomiche

Bolla. Un termine ricorrente che appare sempre più spesso nelle analisi di questo inizio del 2026. L’anno in cui potrebbe scoppiare la bolla dell’IA. Un’ipotesi, spesso guidata più dalla paura e dal desiderio di avere una notizia sensazionalistica che da dati concreti. Ma cosa dice la realtà? Come riescono queste aziende a generare profitti? E come prevedono di farlo in futuro?

Tra speranze e aspettative, al momento per gli analisti la situazione appare altamente incerta. Il clima è riassunto bene dall’analisi pubblicata lo scorso dicembre sull’Harvard Business Review da Andy Wu, che afferma: sebbene la promessa dell’IA sia evidente, il ritorno sugli ingenti investimenti effettuati rimane incerto.

“Il problema è che oggi l’IA generativa ha costi elevati e ricavi limitati”. Gli abbonamenti e la pubblicità non sono sufficienti a coprire l’enorme quantità di dati, energia e costi necessari per generare un’immagine divertente o una risposta ben scritta. Questo vale in particolare per le aziende che producono (e commercializzano) modelli, come OpenAI e Anthropic. Al contrario, chi fornisce infrastrutture e componenti per sviluppare i modelli sta prosperando. Fino a che punto, è difficile da dire.

OpenAI, il gigante dell’IA troppo grande per fallire

OpenAI è la società che ha idealmente avviato la corsa all’IA. Novembre 2022. Il suo modello di IA generativa, , ha riscontrato un successo straordinario tra gli utenti, battendo ogni record di download e acquirenti. OpenAI è il fulcro del settore. Tuttavia, la sua posizione sembra la più vulnerabile.

OpenAI ha una valutazione di 500 miliardi, ma è in perdita e, secondo Bloomberg, prevede di bruciare cassa per 115 miliardi fino al 2029. Per sopravvivere, ha bisogno di continui aumenti di capitale. Nuove iniezioni di denaro da parte di fondi e aziende. I proventi dagli abbonamenti (35 milioni a gennaio 2026, con l’obiettivo di raggiungere 220 entro il 2030, con piani di abbonamento che variano da 20 a 200 dollari) non sono più sufficienti.

La sfida principale del 2026: attrarre e trattenere talenti

Negli ultimi mesi, OpenAI ha cercato di specializzarsi ulteriormente, lanciando ChatGPT Enterprise e soluzioni specifiche per il settore sanitario, e sta tentando di ridurre la sua dipendenza totale da Nvidia progettando chip in collaborazione con Broadcom. Secondo Bloomberg, la sfida principale per il 2026 riguarda anche la retention dei talenti, in fuga verso startup o progetti personali. Ma è fondamentale anche la gestione della partnership con Microsoft, che da alleato fidato si è trasformato in un concorrente ambiguo.

OpenAI è ora una “too big to fail” dell’intelligenza artificiale: la sua sopravvivenza dipende dalla sua capacità di convincere gli investitori che il cammino verso l’AGI (Intelligenza Generale Artificiale) porterà a un ritorno economico sufficiente a giustificare investimenti che ormai superano il PIL di intere nazioni.

Anthropic e il modello di ‘infrastruttura critica’

Anthropic, fondata da Dario Amodei, affronta sfide simili a quelle di OpenAI. Condividono un modello e un prodotto che hanno origini e radici comuni (Amodei è un ex dipendente di OpenAI, che ha intrapreso un’altra strada per motivi ‘etici’, perlomeno non era pienamente convinto dell’‘etica’ di OpenAI).

Basata sulla “Constitutional AI”, l’azienda ha cercato di dimostrare nel 2025 e nel 2026 che la sicurezza non rappresenta un limite alla potenza, ma un vantaggio competitivo. Attualmente ha una valutazione di 190 miliardi. Il suo modello Claude 3.5 Sonnet e i successivi hanno ridefinito le capacità di ragionamento logico e analisi documentale, diventando lo standard per i settori legale, farmaceutico e finanziario, dove un errore può costare milioni.

Un capolavoro di equilibrio politico e commerciale

La strategia di Anthropic è un capolavoro di equilibrio geopolitico e commerciale. Diverse analisi confermano questo e il quadro è ben descritto dal report McKinsey sull’IA generativa del 2025. Pur essendo finanziata massicciamente da Amazon (oltre 4 miliardi) e Google, ha mantenuto un’autonomia che le consente di servire i clienti di entrambi i fornitori di cloud tramite Bedrock (il servizio di IA generativa di Amazon AWS) e Vertex AI (la piattaforma di machine learning e IA generativa di Google). Questo modello di “IA come infrastruttura critica” le ha permesso di scalare rapidamente senza dover costruire una propria rete di distribuzione globale. Perché infrastruttura critica? Qui risiede gran parte del lavoro di Anthropic.

L’IA non è più vista come chatbot e applicazioni consumer, ma come motore decisionale, un livello cognitivo essenziale in prodotti per finanza, sanità, ricerca scientifica, difesa e pubblica amministrazione. Di fatto, un’infrastruttura. Che trae quasi esclusivamente profitto vendendo questi ‘livelli’ a aziende (B2B), che pagano per token con prezzi differenziati in base al modello; più è avanzato e preciso, più si paga. Ulteriori ricavi provengono dai modelli utilizzati per Amazon e Google: quando un’azienda utilizza Claude attraverso di loro, una quota viene girata ad Anthropic.

Mentre tutte le aziende (inclusa la francese Mistral) stanno sperimentando il modello pay-to-consume (o consumption-based pricing). Diventato nel 2026 lo standard per chiunque venda “intelligenza” sotto forma di componente grezza o servizio scalabile. A differenza degli abbonamenti fissi (classico Software as a Service), qui si paga solo per l’effettivo utilizzo energetico o di calcolo. Se l’IA risolve il problema al posto di un umano, si paga il servizio. Altrimenti no.

Meta, profitti dall’IA senza vendere IA

Meta funge da collegamento tra diversi mondi. E per molti, l’azienda nasconde attualmente il potenziale più alto di tutti. Meta sta abbracciando l’IA dopo il fallimento del Metaverso (è di oggi la notizia del taglio di migliaia di dipendenti nel settore, identificato come la stella polare di un nuovo corso mai completamente avviato). Ora si concentra su un’IA pragmatica. Meta non vende IA. Ma utilizza l’IA per potenziare il suo vero business. “We run ads”. Vendiamo pubblicità, per citare lo stesso Zuckerberg durante il Congresso .

La strategia di Mark Zuckerberg è differente: rendere pubblici i suoi modelli, come Llama, per ridurre il vantaggio dei concorrenti che fanno pagare l’accesso all’IA. In questo modo, molte startup e aziende costruiscono i loro sistemi su Llama, piuttosto che dipendere da servizi a pagamento come quelli di OpenAI. Meta guadagna non vendendo i modelli, ma utilizzando l’IA per migliorare i suoi prodotti principali. Su WhatsApp e Messenger, l’intelligenza artificiale consente alle piccole imprese di automatizzare l’assistenza clienti e le vendite, trasformando le chat in veri canali commerciali. Questo rafforza l’utilizzo delle piattaforme di Meta e genera nuovi ricavi attraverso i servizi business.

Gli occhiali intelligenti con Luxottica

Inoltre, c’è un impatto su prodotti specifici come gli occhiali smart. Sempre di oggi la notizia che Meta e Luxottica hanno annunciato di raddoppiare la produzione. Un esempio perfetto di integrazione tra IA e mondo fisico, uno dei macro trend annunciati all’inizio dell’anno. Il 2026 sarà l’anno in cui l’IA diventerà qualcosa di tangibile. Non dimentichiamo un ultimo aspetto: i data center. Nonostante una spesa in conto capitale (Capex) che ha superato i 50 miliardi di dollari all’anno per costruire data center propri, gli investitori continuano a premiare Meta per la sua capacità di generare flussi di cassa attraverso l’ottimizzazione pubblicitaria assistita dall’IA (Advantage+). Una vera gallina dalle uova d’oro, senza la necessità di troppi picconi. Il rischio rimane l’alto costo energetico e la pressione normativa. L’Europa continua ad accendere i riflettori sull’uso dei dati degli utenti per l’addestramento.

Google, la corsa riuscita a OpenAI e oltre

Ci sono stati momenti in cui si pensava che Google fosse in ritardo nello sviluppo dell’IA. Oggi, molti credono che se ci sarà un vincitore, e dovesse essercene uno solo nel lungo periodo, questo debba trovarsi a Mountain View. Gli analisti di Bloomberg hanno definito la sua strategia “difesa aggressiva”.

In risposta alla minaccia di OpenAI, l’azienda ha trasformato Gemini in un sistema multimodale onnipresente. Oggi i dati mostrano che la rincorsa a ChatGPT è completata. Gli utenti sono in crescita e i bilanci stanno diventando più solidi (Google fattura 300 miliardi l’anno, un terzo del quale è utile netto). Il vantaggio competitivo di Google nel 2026 non è solo il software, ma il controllo totale della tecnologia: grazie alle sue TPU (Tensor Processing Units) di sesta generazione, Google può eseguire i propri modelli a un costo drasticamente inferiore rispetto a qualsiasi altro concorrente.

Da inseguitore a leader, Google copre tutto

Questo le consente di offrire versioni potenti dell’IA gratuitamente o a prezzi molto competitivi all’interno dell’ecosistema Android e Workspace, a discapito di modelli di business a pagamento, come quello di OpenAI. YouTube rappresenta una miniera d’oro all’interno di Mountain View. L’addestramento sui dati video ha conferito a Gemini una comprensione dei contesti fisici e delle interazioni umane che i modelli puramente testuali faticano a replicare. Provare Gemini per credere.

Tuttavia, Google deve affrontare il cambiamento del modello pubblicitario tradizionale: per compensare la diminuzione dei clic nella Search, sta puntando tutto sugli “Shopping Agent” e sull’integrazione dell’IA nel commercio elettronico.

Microsoft e l’infrastruttura di calcolo totale

Forse per la prima volta si parla di Microsoft e IA quando l’azienda annuncia il suo massiccio investimento in OpenAI. Un miliardo, poi dieci. Ma è solo un tassello di un gioco più ampio, dove Redmond si è mossa con l’abilità di chi controlla i canali di distribuzione della tecnologia stessa. La sua strategia non riguarda più solo l’integrazione di modelli linguistici in Windows e Office, ma la creazione di un’infrastruttura di calcolo totale.

Alcuni esempi? Azure è diventata la “nuvola dell’IA” per eccellenza, non solo ospitando OpenAI ma integrando nativamente modelli open source e proprietari per offrire la massima flessibilità alle aziende. Per proteggere i propri margini, Microsoft ha accelerato la produzione dei propri chip Maia e Cobalt, cercando di ridurre il “tributo” versato a Nvidia (ancora una volta, l’IA come questione di chi produce i picconi). I profitti dall’IA provengono da abbonamenti per aziende, servizi cloud e verticali. Anche in questo caso, non vende direttamente IA, ma offre prodotti che incorporano la sua IA.

Energia, infrastruttura, software

Dal punto di vista energetico, Microsoft è diventata un attore politico, riattivando reattori nucleari (ad esempio, Three Mile Island, Pennsylvania, con l’aiuto dell’amministrazione ) per alimentare i suoi enormi cluster, una mossa necessaria per garantire la continuità del servizio in un mondo affamato di gigawatt. Nonostante la concorrenza di Google e Meta, la forza di Microsoft risiede nella sua inarrestabile penetrazione nei processi aziendali.

Una volta che un’impresa ha automatizzato il proprio flusso di lavoro con Copilot, i costi di transizione diventano proibitivi. Il rischio principale è, come è ovvio, l’antitrust. E Microsoft ne è consapevole.

Musk e xAI, l’outsider diventato leader

Se finora si è operato nel piano liscio e prevedibile delle aziende tradizionali, ora ci si muove sul terreno irregolare dell’outsider per eccellenza. E per percorrerlo serve un fuoristrada, meglio ancora, un Cybertruck. xAI di Elon Musk è l’azienda che ha cambiato le regole del gioco puntando sulla velocità e sulla massa critica. Nel 2026, l’azienda è diventata il punto di riferimento per l’IA “non filtrata” legata al mondo fisico. Il supercomputer Colossus a Memphis, con le sue centinaia di migliaia di GPU, ha consentito a Musk di accelerare i tempi, portando Grok-3 e Grok-4 a competere direttamente con i leader del settore. Tutto questo realizzato in tempi record. Tra polemiche, licenze politiche e scorrettezze. Ma Musk ce l’ha fatta.

Tesla, Optimus e il piccone intelligente

La vera forza di xAI risiede nella sua stretta connessione con l’impero Musk. Non c’è nulla che xAI faccia che non sia utile a Tesla, X o SpaceX. L’IA di Musk non si limita a rispondere alle domande degli utenti su X, ma guida le auto Tesla e, soprattutto, conferisce un “cervello” ai robot umanoidi Optimus. Questa focalizzazione sulla “IA del mondo reale” distingue xAI da tutti gli altri concorrenti, che rimangono confinati nel mondo digitale di testi e immagini. Il modello di business di xAI è ibrido: abbonamenti premium su X e licenze tecnologiche destinate a Tesla. Musk è convinto che la capacità di un’IA di navigare nello spazio fisico e manipolare oggetti sia infinitamente più preziosa di un chatbot che compone poesie.

Nonostante le polemiche sulla sicurezza e la mancanza di filtri etici, xAI ha attratto enormi investimenti da parte di investitori che credono nella “visione ingegneristica” di Musk. Il rischio è legato alla volatilità del suo fondatore e alle possibili sanzioni regolatorie per

Lascia una risposta

L'indirizzo email non verrà pubblicato.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More