Il 2026 rappresenta il punto di svolta per l’intelligenza artificiale.
È trascorso poco più di cinque anni da quando OpenAI ha impressionato per la prima volta il pubblico globale. Infatti, nel settembre del 2020, il Guardian pubblicava un articolo dal titolo: “Un robot ha completamente redatto questo articolo. Ora hai paura, essere umano?”. Firmato: GPT-3. Nel testo, il modello di linguaggio – che due anni dopo avrebbe alimentato la prima versione di ChatGPT – esaminava il legame storico tra gli esseri umani e i robot, citando Matrix e analizzando le ragioni, secondo lui infondate, dei nostri timori nei loro confronti.
In quel periodo, fu un piccolo shock che riaccese le ansie nei confronti delle intelligenze artificiali che sembravano pronte a diventare realmente intelligenti e, in modo più concreto, sollevò preoccupazioni riguardo all’effetto che tali sistemi avrebbero potuto avere nel mercato del lavoro.
Attualmente, ChatGPT vanta 850 milioni di utenti, i modelli di linguaggio di grandi dimensioni si sono moltiplicati (Claude, Gemini, Grok, Mistral, DeepSeek) e sono utilizzati quotidianamente da una fetta sempre più ampia della popolazione: sia nel contesto professionale e creativo, per ricevere suggerimenti di natura domestica (riparazioni, ricette, ecc.), per condurre ricerche e anche, nonostante i rischi, come supporto psicologico.
Il successo è indiscutibile, eppure i conti non sembrano tornare. OpenAI ha chiuso il 2025 con un bilancio negativo per decine di miliardi, Anthropic è anch’essa fortemente in perdita e persino i giganti della Silicon Valley più attivi in questo settore (Meta, Google, Amazon e non solo) hanno finora ottenuto ricavi modesti rispetto ai loro enormi investimenti.
Dopo anni di promesse cresciute in parallelo agli ingenti capitali investiti nell’intelligenza artificiale generativa, il 2026 potrebbe rappresentare l’anno della verità. L’anno in cui nuove applicazioni concrete e più proficue si presentano, sostenendo l’espansione di questa tecnologia, oppure l’anno in cui l’hype – e soprattutto la bolla speculativa – inizia a sgonfiarsi. E quindi, su quali aspetti stanno puntando le realtà più innovative del settore per garantirsi di superare un anno che si preannuncia cruciale, da “o la va o la spacca”?
Per ora, non esiste una singola tendenza: le strade percorse da OpenAI, Google, Meta e Anthropic sono molteplici e alcune di esse si sovrappongono. Dagli agenti sempre più professionali ai “companion” progettati per diventare i nostri migliori amici, dai modelli integrati in una varietà di servizi ai misteriosi dispositivi hardware, dalla complessa frontiera della salute alla prospettiva di nuove scoperte scientifiche: ecco i progetti sviluppati da alcune delle principali realtà tecnologiche.
Anthropic e gli agenti professionali
Le intelligenze artificiali sostituiranno l’essere umano o si limiteranno a diventare assistenti sempre più affidabili ed efficienti, a cui delegare un numero crescente di compiti? Nonostante la startup fondata da Dario e Daniela Amodei abbia ripetutamente lanciato l’allerta sul rischio di sostituzione, al momento il loro modello di linguaggio Claude sembra avere le maggiori probabilità di evolversi in un assistente – o agente – professionale, su cui si può effettivamente contare.
All’inizio del 2026, Anthropic ha infatti presentato la versione beta di Claude Cowork, riservata agli utenti Max (costo minimo di 100 dollari al mese). Basato sulla versione per programmatori Claude Code, Cowork è un agente che non si limita a rispondere in una chat, ma svolge direttamente (se così si può dire) compiti semplici definiti “task”. L’utente può decidere a quali file, cartelle o anche browser concedere l’accesso per consentire a Cowork di operare in autonomia, ma chiedendo conferma prima delle operazioni più delicate.
L’intento è che Claude diventi un assistente realmente operativo, capace di riordinare i nostri documenti, redigere report, spostare file nelle cartelle appropriate, unire immagini in un unico PDF, cercare informazioni nelle nostre email e, in sintesi, svolgere per noi tutte quelle noiose operazioni di “background” che chi non ha un assistente umano deve eseguire autonomamente. Rispetto a un tradizionale modello di linguaggio di grandi dimensioni, che può operare solo in ambiti limitati e altrimenti si limita a fornire consigli più o meno attendibili, il progresso è notevole. Inoltre, poiché Cowork si concentra su compiti banali, la sua affidabilità, almeno nelle prove finora effettuate, sembra essere molto superiore a quella di agenti che aspirano, per esempio, a organizzare le vacanze al posto nostro.
Proprio per la sua concreta operatività, Claude presenta anche dei rischi. Oltre agli errori inevitabili e ai problemi legati alla privacy, questi sistemi possono diventare vittime della cosiddetta prompt injection: istruzioni nascoste in una pagina web o in un documento che compromettono il modello linguistico e possono indurlo a compiere azioni dannose.
Anthropic, almeno dal punto di vista del marketing, è pronta ad affrontare tutti i dubbi e le preoccupazioni che gli utenti potrebbero avere. Da tempo, la startup sta infatti puntando sulla AI Safety. È un’etichetta che racchiude le misure adottate o previste da Anthropic in termini di controllo delle allucinazioni (gli “svarioni” che i modelli linguistici tendono a commettere) o della capacità dei sistemi di spiegare e motivare le loro decisioni (la cosiddetta “explainable AI”). Più in generale, Anthropic parla di Responsible Scaling Policy, attraverso la quale introduce livelli di sicurezza crescenti in base alla capacità del modello e agli usi che se ne fanno.
È una strategia imprescindibile, considerando che la startup di Amodei si propone di espandere e specializzare sempre di più le versioni professionali di Claude, occupandosi di finanza, pubblica amministrazione e anche salute. Anthropic ha recentemente lanciato Claude for Healthcare, una versione pensata per ospedali, assicurazioni e operatori sanitari che promette di riassumere e connettere cartelle cliniche, analizzare esami, supportare attività amministrative e aiutare i pazienti a interpretare i propri dati. Il sistema può accedere, previo consenso, a informazioni sanitarie delicate e a database medici standardizzati, ma non è certificato come dispositivo medico e non sostituisce il giudizio clinico. Anche in questo caso, l’obiettivo è introdurre l’AI in settori sensibili e che fino a poco tempo fa sarebbero stati considerati inaccessibili.
Google porta Gemini ovunque
Se l’obiettivo di Anthropic è quello di introdurre Claude in ambiti critici e professionali, quello di Google appare differente: integrare Gemini all’interno di tutti i prodotti offerti dal gigante di Mountain View. Chi oggi sottoscrive un abbonamento a Gemini non ottiene soltanto l’accesso alla versione più potente del modello linguistico, ma anche la sua integrazione in Gmail, Drive, Chrome, Workspace e altri servizi di grande successo che Google ha sviluppato nel corso degli anni, creando in alcuni casi veri e propri monopoli verticali.
Da un certo punto di vista, era qualcosa di atteso. Il principale vantaggio competitivo di Google rispetto ai concorrenti è proprio quello di disporre di una serie di servizi utilizzati quotidianamente da miliardi di utenti. Cosa c’è di più semplice: integrare il proprio modello linguistico all’interno di prodotti affermati o dover costruire da zero alcuni di questi servizi – come potrebbe essere il browser Atlas di OpenAI – per sfruttare al meglio le potenzialità della propria intelligenza artificiale?
Questa strategia sta già premiando Mountain View, almeno dal punto di vista numerico: nel corso del 2025, Gemini è passato da 350 a 650 milioni di utenti attivi, avvicinandosi pericolosamente a ChatGPT – che a dicembre, per la prima volta, ha registrato un calo del 6% nella base utenti – dimostrando come la leadership del modello linguistico, divenuto sinonimo di intelligenza artificiale, non sia più garantita.
Gemini sta inoltre venendo integrato in YouTube (permettendo, ad esempio, di ottenere riassunti dei video), è alla base dell’AI Mode che sta rapidamente trasformando l’uso del motore di ricerca di Google e, più in generale, evidenzia come la strategia del CEO Sundar Pichai sia quella di rendere l’intelligenza artificiale non solo un prodotto, ma un’infrastruttura informatica che alimenta le funzionalità più avanzate e personalizzate dei suoi prodotti.
A differenza di OpenAI e Anthropic, Google (o meglio: Alphabet) non ha fretta di rendere il suo modello linguistico redditizio. Con 125 miliardi di utili (e 385 di ricavi) generati negli ultimi 12 mesi, può continuare a investire in Gemini e nelle sue applicazioni, con l’obiettivo finale di riconquistare la storica leadership nell’intelligenza artificiale.
Le risorse finanziarie illimitate consentono inoltre a Google di continuare a operare nel campo della “deep tech” e di perseguire scoperte scientifiche fondamentali tramite DeepMind. Con tutta l’attenzione rivolta ai modelli di linguaggio di grandi dimensioni, si erano un po’ perse le tracce del laboratorio di ricerca londinese diretto da Demis Hassabis. Che ora, però, sta studiando come sfruttare gli LLM anche in ambito scientifico.
Il sistema sperimentale AlphaEvolve ha infatti l’obiettivo di combinare Gemini con algoritmi “evolutivi” (che selezionano e migliorano progressivamente le soluzioni da loro stessi identificate) per affrontare problematiche scientifiche ancora irrisolte (che è un po’ la specialità di DeepMind). I settori su cui DeepMind sta focalizzando la sua attenzione sono efficienza energetica e computazionale, ma in futuro anche sviluppo di materiali, farmaci e risoluzione di problemi matematici complessi. È il classico “moonshot” in stile Google: una scommessa rischiosa che potrebbe non dare i risultati sperati. Ma che, in caso di successo, può portare a fondamentali scoperte scientifiche.
Gli amici artificiali di Mark Zuckerberg
Rispetto a quanto esaminato finora, la strategia su cui sta puntando Meta per consolidare la propria posizione nel settore dell’intelligenza artificiale potrebbe sembrare quasi un gioco. Dal punto di vista finanziario, gli “AI companions” – ossia i chatbot con cui si può simulare un rapporto di amicizia, scegliendone anche le caratteristiche della personalità – potrebbero però rivelarsi una faccenda molto seria. Secondo un rapporto di Fortune Business Insights, questo specifico mercato vale già oltre 30 miliardi di dollari e potrebbe superare i 400 miliardi entro il 2034.
L’esperienza ci ha insegnato a prendere con cautela questo genere di previsioni economiche. Il successo ottenuto da applicazioni pionieristiche come Replika, la nascita di startup dedicate a questo settore – come Character.AI, che già nel 2023 aveva una valutazione superiore al miliardo di dollari – e la diffusione innegabile di questa modalità di interazione con i chatbot hanno però catturato l’attenzione di Mark Zuckerberg, che la considera addirittura una soluzione all’“epidemia di solitudine” che da decenni affligge la società occidentale.
“L’americano medio ha meno di tre amici, ma la domanda è significativamente superiore”, aveva spiegato Zuckerberg qualche mese fa. Al di là della bizzarra scelta di usare un termine – “domanda” – legato alla legge del mercato mentre si parla di amicizia e solitudine, l’obiettivo che il fondatore di Meta si è posto l’anno scorso è chiaro: colmare la scarsa vita sociale degli statunitensi (e non solo) tramite gli AI companion.
La strategia di Meta in questo ambito si basa principalmente su Meta AI Studio, una piattaforma che consente a chiunque di creare chatbot personalizzati utilizzando il modello linguistico Llama. Attraverso un’interfaccia guidata, è possibile definire personalità, tono di voce, ambito di competenza e stile comunicativo del bot, trasformandolo in una sorta di “alter ego digitale” o in un personaggio autonomo. Il target principale sono i creator e le celebrità, che possono utilizzare questi companion per ampliare la propria presenza online, rispondere ai fan, animare le comunità e sperimentare nuove forme di interazione e monetizzazione. Meta quindi non sviluppa direttamente gli amici artificiali del futuro, ma fornisce gli strumenti affinché siano gli utenti stessi, e in particolare creator e celebrità, a realizzarli e distribuirli all’interno dell’ecosistema social di Meta.
Quella degli AI companions è una scommessa difficile, soprattutto considerando quanto Zuckerberg tenda a sovrastimare l’attrazione esercitata dai diversi surrogati digitali di socialità su cui ha puntato negli ultimi anni. Meno azzardata, ma tecnologicamente molto complessa, è invece la frontiera degli smart glass, realizzati da Meta in collaborazione con Ray-Ban e recentemente ribattezzati “AI glass” per cavalcare il successo mediatico dell’intelligenza artificiale.
Dopo aver sorpreso gli esperti del settore con il successo delle prime versioni, ora i Ray-Ban di Meta mirano a integrare molto più di semplici videocamere, microfoni e auricolari. Man mano che la miniaturizzazione della tecnologia lo consente, questi smart glass stanno infatti adottando la realtà aumentata, apparsa per la prima volta nei recenti Ray-Ban Display.
E l’intelligenza artificiale? Potete immaginarla come qualcosa di simile a quanto mostrato nel film Her: un assistente digitale – presente in tutti i nuovi modelli dei Ray-Ban Meta – sempre a portata di voce e in grado di interagire con ciò che ci circonda. Grazie alla visione artificiale, questo assistente può inoltre “vedere” ciò che inquadriamo, riconoscere oggetti, leggere testi, identificare luoghi e fornire informazioni in tempo reale su ciò che abbiamo davanti agli occhi. È quella che Meta definisce “intelligenza artificiale contestuale”.
OpenAI e l’economia dell’intimità
Per essere l’azienda che ha dato il via, almeno dal punto di vista commerciale, alla rivoluzione dell’intelligenza artificiale generativa, OpenAI non sembra avere una strategia chiara per il 2026, soprattutto rispetto a concorrenti come Anthropic e Google. La novità più significativa è anche quella che rischia di allontanare un gran numero di utenti, soprattutto se non si verificherà la stessa cosa su Gemini: la pubblicità sta per arrivare sulla versione gratuita di ChatGPT.
È una scelta che era nell’aria da tempo e che molti analisti considerano inevitabile proprio a causa delle ingenti perdite accumulate dalla società fondata da Sam Altman. Possono bastare delle inserzioni pubblicitarie per colmare i buchi di bilancio? Probabilmente no, ma le potenzialità economiche superano di gran lunga quelle delle pubblicità personalizzate presenti sui social media. ChatGPT conosce infatti gli utenti in modo molto profondo: “A differenza dei social network, l’intelligenza artificiale conversazionale offre una sensazione di intimità. Quando interagiamo con un chatbot non c’è un pubblico visibile, nessun feed, nessun post di cui pentirsi”, si legge su Tech Policy. “Scriviamo, ci confidiamo e spesso dimentichiamo che dall’altra parte c’è un sistema: un sistema che può registrare, analizzare e apprendere da tutto ciò che condividiamo su salute, ansie finanziarie, relazioni personali e persino convinzioni politiche”.
Le pubblicità mirate grazie all’intelligenza artificiale, o integrate direttamente nelle risposte dei chatbot, consentono quindi un livello di personalizzazione senza precedenti, aumentando notevolmente il loro valore economico. Come sottolinea ancora TechPolicy, durante le conversazioni gli utenti rivelano con facilità dati estremamente sensibili – dai problemi familiari alla salute mentale – che i chatbot possono conservare e ricollegare all’interno di un’unica sessione, “facilitando la creazione di inserzioni personalizzate mirate proprio su questi dettagli profondamente personali”.
È la cosiddetta “economia dell’intimità”, sulla quale OpenAI sembra puntare anche per ChatGPT Health. A differenza della versione di Claude, destinata agli operatori del settore, Health è una sezione di ChatGPT pensata soprattutto per gli utenti finali: uno spazio in cui caricare referti, analisi e documenti medici, ottenere spiegazioni in linguaggio semplice, preparare domande da porre al medico e monitorare parametri legati al benessere personale. Non è quindi uno strumento clinico, ma un assistente per la gestione della nostra salute. Da OpenAI sono giunte le inevitabili rassicurazioni relative alla privacy, affermando, ad esempio, che i dati non saranno utilizzati per l’addestramento dei sistemi e che le chat saranno separate dal resto. Non è invece chiaramente specific
I commenti sono chiusi.