Il 2026 rappresenta per l’intelligenza artificiale un anno cruciale.

Il 2026 rappresenta per l'intelligenza artificiale un anno cruciale. 1

È trascorso poco più di cinque anni da quando OpenAI ha impressionato il mondo per la prima volta. Era nel settembre del 2020 quando il Guardian pubblicava un articolo dal titolo: “Un robot ha scritto completamente questo articolo. Adesso hai paura, essere umano?”. Firmato: GPT-3. Nel contenuto, il modello linguistico – che due anni dopo avrebbe alimentato la prima versione di – esaminava il legame storico tra uomini e robot, citava Matrix e analizzava le motivazioni, a suo avviso infondate, delle nostre apprensioni nei loro confronti.

In quel periodo, fu un piccolo shock che riaccese le ansie nei confronti delle intelligenze artificiali, le quali sembravano prossime a diventare realmente intelligenti e, più concretamente, generò preoccupazione per l’impatto che tali sistemi avrebbero potuto avere nel mercato del lavoro.

Oggi ChatGPT vanta 850 milioni di utenti, i modelli di linguaggio si sono moltiplicati (Claude, Gemini, Grok, Mistral, DeepSeek) e vengono utilizzati quotidianamente da una fetta crescente della popolazione: in ambito lavorativo e creativo, per ricevere suggerimenti domestici (riparazioni, ricette, ecc.), per effettuare ricerche e anche, nonostante le insidie, come supporto psicologico.

Il successo è innegabile, eppure i bilanci non tornano. OpenAI ha concluso il 2025 con un passivo di decine di miliardi, Anthropic è anch’essa fortemente in perdita e persino i grandi nomi della Silicon Valley più impegnati in questo campo (Meta, Google, Amazon e altri) hanno finora registrato scarsi introiti a fronte di ingenti investimenti.

Dopo anni di promesse in crescita parallela agli investimenti nell’intelligenza artificiale generativa, il 2026 potrebbe rappresentare l’anno della verità. L’anno in cui nuove applicazioni pratiche e più lucrative emergono, sostenendo l’avanzata di questa tecnologia, oppure l’anno in cui l’hype – e in particolare la bolla speculativa – inizia a deflazionare. E dunque, su cosa stanno puntando le realtà più innovative nel campo dell’intelligenza artificiale per garantirsi di superare un anno che si preannuncia cruciale, da “o la va o la spacca”?

Per ora, non esiste una sola tendenza: le direzioni intraprese da OpenAI, Google, Meta e Anthropic sono molteplici e alcune di queste si intersecano. Dagli agenti sempre più professionali ai “companion” che ambiscono a diventare i nostri migliori amici, dai modelli integrati in una varietà di servizi ai misteriosi dispositivi hardware, dalla complessa frontiera della salute a nuove scoperte scientifiche: ecco i progetti attualmente in fase di sviluppo di alcune delle realtà tecnologiche più influenti.

Anthropic e gli agenti professionali

Le intelligenze artificiali sostituiranno l’essere umano o si limiteranno a diventare assistenti sempre più affidabili ed efficienti, a cui delegare un numero crescente di compiti? Nonostante la startup fondata da Dario e Daniela Amodei abbia più volte avvertito del rischio di sostituzione, attualmente il loro modello linguistico Claude sembra essere quello con le maggiori probabilità di evolversi in un assistente – o agente – professionale, sul quale è realmente possibile contare.

All’inizio del 2026, Anthropic ha effettivamente lanciato la versione beta di Claude Cowork, riservata agli utenti Max (minimo 100 dollari al mese). Basato sulla versione per programmatori Claude Code, Cowork è un agente che non si limita a rispondere in una chat, ma esegue attivamente (se così si può dire) compiti semplici definiti “task”. L’utente può decidere a quali file, cartelle o anche browser concedere l’accesso per consentire a Cowork di operare autonomamente, ma richiedendo conferma prima delle operazioni più delicate.

L’intento è che Claude diventi un assistente realmente operativo, capace di riorganizzare i nostri documenti, generare report, spostare file nelle cartelle corrette, unire immagini in un unico PDF, cercare informazioni nelle nostre email e, in sintesi, svolgere per noi tutte quelle noiose operazioni di “background” che chi non ha un assistente umano è costretto a effettuare autonomamente. Rispetto a un tradizionale large language model, che può operare solo in ambiti limitati e altrimenti si limita a fornire suggerimenti più o meno attendibili, il salto è sostanziale. Inoltre, proprio perché Cowork si concentra su compiti banali, la sua affidabilità, almeno nelle prove condotte finora, sembra essere molto superiore a quella degli agenti che aspirano, ad esempio, a organizzare le vacanze per noi.

Proprio per la sua concreta operatività, Claude presenta anche dei rischi. Al di là degli errori sempre possibili e delle problematiche legate alla privacy, questi sistemi possono diventare bersaglio della cosiddetta prompt injection: istruzioni nascoste in una pagina web o in un documento che compromettono il modello linguistico e possono indurlo a compiere azioni dannose.

Anthropic, almeno per quanto riguarda il marketing, è pronta ad affrontare tutte le incertezze e le preoccupazioni che i suoi utenti potrebbero avere. Da tempo, la startup sta infatti investendo nell’AI Safety. È un’etichetta che racchiude le misure implementate o pianificate da Anthropic in termini di controllo delle allucinazioni (gli “svarioni” che i modelli linguistici tendono a commettere) o di capacità dei sistemi di spiegare e giustificare le loro decisioni (la cosiddetta “explainable AI”). Più in generale, Anthropic parla di Responsible Scaling Policy, tramite la quale introduce livelli di sicurezza crescenti in base alla competenza del modello e agli usi previsti.

È una strategia necessaria, dal momento che la startup di Amodei mira a espandere e specializzare sempre di più le versioni professionali di Claude, occupandosi di finanza, pubblica amministrazione e anche salute. Anthropic ha infatti di recente lanciato Claude for Healthcare, una versione progettata per ospedali, assicurazioni e operatori sanitari che promette di riassumere e collegare cartelle cliniche, analizzare esami, supportare attività amministrative e aiutare i pazienti a comprendere i propri dati. Il sistema può accedere, previo consenso, a informazioni sanitarie sensibili e a database medici standardizzati, ma non è certificato come dispositivo medico e non sostituisce il giudizio clinico. Anche in questo caso, l’intento è di introdurre l’AI in settori delicati e che fino a poco tempo fa sarebbero stati considerati inaccessibili.

Google porta Gemini ovunque

Se l’obiettivo di Anthropic è inserire Claude in ambiti critici e professionali, quello di Google appare diverso: integrare Gemini all’interno di tutti i prodotti offerti dal gigante di Mountain View. Coloro che oggi pagano l’abbonamento a Gemini non ottengono soltanto accesso alla versione più potente del modello linguistico, ma anche la sua integrazione in Gmail, Drive, Chrome, Workspace e negli altri servizi di grande successo che Google ha sviluppato nel corso degli anni, creando in alcuni casi veri e propri monopoli verticali.

Da un certo punto di vista, era inevitabile. Il principale vantaggio competitivo di Google rispetto ai concorrenti è proprio quello di poter contare su una serie di servizi utilizzati quotidianamente da miliardi di utenti. Cosa c’è di più semplice: integrare il proprio modello linguistico all’interno di prodotti di grande successo o dover costruire da zero alcuni di questi prodotti – come potrebbe essere il browser Atlas di OpenAI – per sfruttare al meglio le potenzialità della propria intelligenza artificiale?

È una strategia che sta già portando risultati positivi a Mountain View, almeno in termini numerici: nel corso del 2025, Gemini è passato da 350 a 650 milioni di utenti attivi, avvicinandosi pericolosamente a ChatGPT – che a dicembre, per la prima volta, ha registrato un calo del 6% nella base utenti – e dimostrando come la leadership del modello linguistico diventato sinonimo di intelligenza artificiale non sia più garantita.

Gemini sta inoltre venendo integrato in YouTube (permettendo ad esempio di ottenere riassunti dei video), è alla base dell’AI Mode che sta rapidamente trasformando l’utilizzo del motore di ricerca di Google e, più in generale, evidenzia come la strategia del CEO Sundar Pichai sia quella di rendere l’intelligenza artificiale non tanto un prodotto, quanto un’infrastruttura informatica che alimenta le funzionalità più avanzate e personalizzate dei suoi servizi.

A differenza di OpenAI e Anthropic, Google (o meglio: Alphabet) non ha fretta di rendere il suo modello linguistico profittevole. Grazie ai 125 miliardi di utili (e 385 di ricavi) generati negli ultimi 12 mesi, può continuare a investire in Gemini e nelle sue applicazioni, con l’obiettivo finale di riconquistare la storica leadership nell’intelligenza artificiale.

Le risorse economiche illimitate consentono inoltre a Google di continuare a operare nel settore della “deep tech” e di perseguire scoperte scientifiche fondamentali tramite DeepMind. Con tutta l’attenzione rivolta ai large language model, si erano un po’ perse le tracce del laboratorio di ricerca londinese guidato da Demis Hassabis. Che adesso, però, sta studiando come sfruttare gli LLM anche in ambito scientifico.

Il sistema sperimentale AlphaEvolve ha infatti come obiettivo quello di combinare Gemini con algoritmi “evolutivi” (che selezionano e migliorano progressivamente le soluzioni da loro stessi individuate) per affrontare problemi scientifici ancora irrisolti (che è un po’ la specialità di DeepMind). I settori su cui DeepMind sta puntando sono efficienza energetica e computazionale, ma in futuro anche sviluppo di materiali, farmaci e risoluzione di problemi matematici complessi. È il classico “moonshot” in stile Google: una scommessa rischiosa e che potrebbe non produrre i risultati attesi. Ma che in caso di successo può portare a fondamentali svolte scientifiche.

Gli amici artificiali di Mark Zuckerberg

Rispetto a quanto analizzato finora, la strategia su cui Meta sta puntando per rafforzare il proprio ruolo nel campo dell’intelligenza artificiale potrebbe apparire quasi ludica. Dal punto di vista economico, gli “AI companions” – ossia i chatbot con i quali è possibile simulare un rapporto amichevole, scegliendone anche le caratteristiche della personalità – potrebbero però trasformarsi in una questione molto seria. Secondo un rapporto di Fortune Business Insights, questo mercato specifico vale già oggi oltre 30 miliardi di dollari e potrebbe superare i 400 miliardi entro il 2034.

L’esperienza ci ha insegnato a considerare con cautela tale genere di previsioni economiche. Il successo ottenuto da app pionieristiche come Replika, la nascita di startup dedicate a questo settore – come Character.AI, che già nel 2023 aveva una valutazione superiore al miliardo di dollari – e la crescente diffusione di questa modalità di interazione con i chatbot ha però catturato l’attenzione di Mark Zuckerberg, che la considera addirittura un rimedio alla “epidemia di solitudine” che da decenni affligge la società occidentale.

“L’americano medio ha meno di tre amici, ma la domanda è significativamente superiore”, ha spiegato Zuckerberg qualche mese fa. Al di là della strana scelta di utilizzare un termine – “domanda” – legato alla legge del mercato mentre si fa riferimento ad amicizia e solitudine, l’obiettivo che il fondatore di Meta ha posto l’anno scorso è chiaro: sopperire alla scarsa vita sociale degli statunitensi (e non solo) tramite gli AI companion.

La strategia di Meta in questo settore si basa principalmente su Meta AI Studio, una piattaforma che consente a chiunque di creare chatbot personalizzati sfruttando il modello linguistico Llama. Attraverso un’interfaccia guidata è possibile definire personalità, tono di voce, ambito di competenza e stile comunicativo del bot, trasformandolo in una sorta di “alter ego digitale” o in un personaggio autonomo. Il target principale sono i creator e le celebrità, che possono utilizzare questi companion per ampliare la propria presenza online, rispondere ai fan, animare le comunità e sperimentare nuove forme di interazione e monetizzazione. Meta quindi non costruisce direttamente gli amici artificiali del futuro, ma fornisce gli strumenti affinché siano gli utenti stessi, e in particolare creator e celebrità, a svilupparli e distribuirli all’interno dell’ecosistema social di Meta.

Quella degli AI companions è una scommessa difficile, specialmente considerando quanto Zuckerberg tenda a sovrastimare l’attrazione esercitata dai vari surrogati digitali di socialità su cui ha puntato negli ultimi anni. Meno azzardata, ma tecnologicamente molto complessa, è invece la frontiera degli smart glass, realizzati da Meta in collaborazione con Ray-Ban e recentemente ribattezzati “AI glass” per cavalcare il successo mediatico dell’intelligenza artificiale.

Dopo aver sorpreso gli esperti del settore con il successo delle prime versioni, ora i Ray-Ban di Meta mirano a integrare molto più di semplici videocamere, microfoni e auricolari. Man mano che la miniaturizzazione della tecnologia lo consente, questi smart glass stanno infatti adottando la realtà aumentata, apparsa per la prima volta nei recenti Ray-Ban Display.

E l’intelligenza artificiale? Potete immaginarla come qualcosa di simile a quanto visto nel film Her: un assistente digitale – presente in tutti i nuovi modelli dei Ray-Ban Meta – sempre a portata di voce e che può interagire con l’ambiente circostante. Grazie alla visione artificiale, questo assistente può anche “vedere” ciò che inquadriamo, riconoscere oggetti, leggere testi, identificare luoghi e fornire informazioni in tempo reale su ciò che abbiamo davanti agli occhi. È quella che Meta definisce “intelligenza artificiale contestuale”.

OpenAI e l’economia dell’intimità

Per essere la società che ha avviato, almeno dal punto di vista commerciale, la rivoluzione dell’intelligenza artificiale generativa, OpenAI non sembra avere una strategia chiara per il 2026, soprattutto rispetto a concorrenti come Anthropic e Google. La novità più significativa è anche quella che rischia di allontanare un gran numero di utenti, specialmente se non si verificherà lo stesso su Gemini: la pubblicità sta infatti per essere introdotta sulla versione gratuita di ChatGPT.

È una decisione che era nell’aria da tempo, e che molti analisti considerano inevitabile proprio a causa delle immense perdite accumulate dalla società fondata da Sam Altman. Possono bastare delle inserzioni per risolvere i problemi di bilancio? Probabilmente no, ma le potenzialità economiche sono di gran lunga superiori a quelle delle pubblicità personalizzate presenti sui social media. ChatGPT conosce infatti gli utenti in modo molto approfondito: “A differenza dei social network, l’intelligenza artificiale conversazionale dà una sensazione di intimità. Quando interagiamo con un chatbot non c’è un pubblico visibile, nessun feed, nessun post di cui pentirsi”, riporta Tech Policy. “Scriviamo, ci confidiamo e spesso dimentichiamo che dall’altra parte c’è un sistema: un sistema che può registrare, analizzare e apprendere da tutto ciò che diciamo su salute, ansie finanziarie, relazioni personali e perfino convinzioni politiche”.

Le pubblicità targettizzate grazie all’intelligenza artificiale, o integrate direttamente nelle risposte dei chatbot, consentono quindi un livello di personalizzazione senza precedenti, aumentando notevolmente il valore economico. Come evidenzia ancora TechPolicy, nelle conversazioni gli utenti rivelano facilmente dati estremamente sensibili – dai problemi familiari alla salute mentale – che i chatbot possono conservare e ricollegare all’interno di un’unica sessione, “facilitando la creazione di inserzioni personalizzate mirate proprio su questi dettagli profondamente personali”.

È la cosiddetta “economia dell’intimità”, sulla quale OpenAI sembra puntare anche per ChatGPT Health. A differenza della versione di Claude, destinata agli operatori del settore, Health è una sezione di ChatGPT concepita soprattutto per gli utenti finali: uno spazio in cui caricare referti, analisi e documenti medici, ricevere spiegazioni in linguaggio semplice, preparare domande da porre al medico e monitorare parametri legati al benessere personale. Non è quindi uno strumento clinico, ma un assistente alla gestione della nostra salute. Da OpenAI sono giunte le inevitabili rassicurazioni riguardo alla privacy, sostenendo ad esempio che i dati non saranno utilizzati per l’addestramento dei sistemi e che le chat saranno separate dal resto. Non è invece chiarito in modo esplicito se queste informazioni saranno impiegate per pubblicità o altro. Nel dubbio, è meglio prestare

I commenti sono chiusi.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More