OpenAI sviluppa un telefono intelligente basato su intelligenza artificiale, privo di applicazioni.
Leggi in app
La funzione vocale del vecchio modello Gpt-4o di OpenAI
“Oggi, lo smartphone è paragonabile a Times Square: un sovraccarico di informazioni e attenzione dispersa. Ciò che OpenAI desidera realizzare è un rifugio tranquillo, un luogo dove poter chiudere la porta quando è necessaria la concentrazione”. Con questa metafora, evocata di recente, Sam Altman ha delineato la filosofia alla base del primo tentativo dell’azienda da lui guidata, OpenAI, di entrare nel settore dell’hardware.
Le ultime notizie – provenienti dalla catena di fornitura – suggeriscono che il lancio del cosiddetto “agent-phone” sia molto più imminente del previsto. OpenAI avrebbe scelto di accelerare il piano, anticipando la produzione di massa alla prima metà del 2027, con l’intento di presentarsi all’imminente offerta pubblica iniziale con un prodotto fisico concreto e, nelle aspettative dell’azienda che ha sviluppato ChatGpt, innovativo.
L’accelerazione e le alleanze strategiche
La scelta di OpenAI di anticipare il lancio del suo primo dispositivo, inizialmente previsto per il 2028, risponderebbe a una duplice esigenza strategica: la pressione degli investitori in vista della Initial Public Offering (IPO) – il processo attraverso il quale una società privata si quota per la prima volta su un mercato regolamentato – e la volontà di competere con Apple e Google, che hanno costruito il loro impero su un ecosistema di servizi legati a smartphone e dispositivi connessi.
OpenAI mira a vendere 30 milioni di unità tra il 2027 e il 2028: non si rivolge quindi a una nicchia di sperimentatori, ma a una porzione significativa del mercato globale. Questo volume di produzione richiederebbe una capacità industriale che OpenAI sta sviluppando attraverso alleanze con grandi nomi della manifattura come Luxshare, già fornitore storico di componenti essenziali per l’elettronica di consumo mondiale.
L’obiettivo: uno smartphone per gli agenti IA
Il concetto di “agent-phone” su cui OpenAI sta lavorando rappresenta un cambiamento radicale nel modo in cui gli utenti interagiscono con la tecnologia mobile.
Attualmente, gli smartphone fungono da contenitori di applicazioni che richiedono input manuali costanti.
Il dispositivo sviluppato da OpenAI – in collaborazione con il designer Jony Ive, ex designer Apple – si propone invece di funzionare tramite “agenti” IA, ovvero software capaci di operare autonomamente per raggiungere obiettivi complessi su indicazione dell’utente.
Il risultato estremo di questa evoluzione è che la tradizionale griglia di icone sullo schermo potrebbe scomparire, un giorno, per lasciare spazio a un flusso di compiti gestiti direttamente dall’intelligenza artificiale, in grado di prenotare voli, spostare file o gestire comunicazioni senza che l’utente debba aprire le singole app.
Per rendere realizzabile questa visione, OpenAI ritiene necessario controllare l’intero ecosistema, dal sistema operativo all’hardware, superando i vincoli di sicurezza e privacy imposti dai sistemi chiusi dei produttori attuali.
OpenAI e il silicio taiwanese
Il cuore tecnologico del dispositivo sarà un processore personalizzato sviluppato in collaborazione con MediaTek, azienda taiwanese leader nel settore dei semiconduttori.
Il chip utilizzerà quasi sicuramente l’architettura Dimensity 9600 e sarà prodotto da TSMC (Taiwan Semiconductor Manufacturing Company) con il processo N2P. Questa sigla indica una tecnologia di fabbricazione all’avanguardia che consente di inserire miliardi di transistor in spazi estremamente ridotti, garantendo un’efficienza energetica eccezionale, fondamentale per un dispositivo che deve elaborare costantemente modelli linguistici complessi.
Una delle specifiche tecniche più significative dovrebbe riguardare la “dual-NPU architecture”, una configurazione con due unità di elaborazione neurale. La NPU è una componente del processore dedicata esclusivamente ai calcoli per l’intelligenza artificiale; averne due consente al telefono di gestire simultaneamente compiti diversi, come la comprensione del linguaggio naturale e l’analisi visiva dell’ambiente circostante.
Una vera “dual-NPU” è già stata utilizzata su smartphone commerciali: Huawei la impiegava nel Kirin 980, montato sulla serie Mate 20 nel 2018. Huawei descriveva il Kirin 980 come il primo SoC con Dual-NPU, spiegando che una delle due NPU gestiva il calcolo AI generale, mentre l’altra era dedicata a compiti specifici.
Nel caso del nuovo dispositivo di OpenAI, però, il punto cruciale sarebbe l’uso di una doppia NPU progettata per gestire in parallelo funzioni di AI più avanzate, come l’elaborazione del linguaggio e l’analisi delle immagini in tempo reale.
La firma di Jony Ive e la percezione sensoriale
La collaborazione tra Jony Ive e Sam Altman mira a sviluppare un dispositivo più intuitivo e meno invadente rispetto agli attuali smartphone dominati dallo schermo.
Secondo alcune indiscrezioni, il primo modello potrebbe presentare un display tradizionale molto ridotto, o esserne quasi privo, e affidarsi principalmente a comandi vocali e alla cosiddetta “visual sensing”, la “percezione visiva” che consentirebbe al dispositivo di osservare l’ambiente e interpretare il contesto in tempo reale.
Un ruolo fondamentale sarà ricoperto dall’Image Signal Processor, o ISP: il componente che trasforma la luce catturata dalla fotocamera in dati digitali. In questo caso, l’ISP sarebbe potenziato per fornire all’intelligenza artificiale informazioni visive più dettagliate e immediate.
Accanto allo smartphone, il team guidato da Jony Ive starebbe lavorando anche a un secondo prodotto per la casa: un assistente progettato per essere posizionato su un tavolo o un mobile, con telecamera integrata, atteso già per febbraio prossimo.
Con uno smartphone e un dispositivo domestico, OpenAI si spingerebbe oltre il software, all’interno di oggetti pensati per accompagnare la vita quotidiana degli utenti.
Il sogno di uno smartphone senza app
L’idea di uno smartphone governato da agenti IA è diventata uno degli obiettivi principali dell’industria mobile dopo l’ascesa di ChatGpt. Da quel momento, i principali produttori hanno cercato di trasformare il telefono da semplice contenitore di app a dispositivo capace di comprendere le intenzioni dell’utente e completare operazioni in autonomia.
La promessa è sempre la stessa: meno passaggi manuali e un assistente che si occupi di tutto autonomamente, muovendosi tra messaggi, calendario, mappe e servizi personali.
Tuttavia, il percorso si è rivelato più lento delle aspettative.
Il caso più evidente è Apple, che aveva presentato Apple Intelligence come il passo verso una Siri più personale e capace di operare all’interno delle app, salvo poi rinviare parte delle funzioni più ambiziose. La società ha anche accettato un accordo da 250 milioni di dollari negli Stati Uniti per risolvere una causa legata alle promesse sull’intelligenza artificiale di Siri, senza ammettere responsabilità.
Google e Samsung si sono mossi con maggiore rapidità sul fronte delle funzioni disponibili, ma anche in questi casi l’esperienza rimane frammentata.
Sui Pixel, Gemini è ormai integrato in diversi servizi e Google continua ad aggiungere strumenti di AI contestuale, ma molte novità dipendono dal modello, dalla lingua e dal Paese in cui il telefono viene utilizzato.
Samsung ha seguito una traiettoria simile con Galaxy AI, concentrandosi su traduzione, assistenza alla scrittura e funzioni contestuali. Ma anche nel caso dell’azienda sudcoreana, il sogno di un’IA in grado di connettere più app e risolvere una sequenza di operazioni complesse, in totale autonomia, è ancora lontano dall’essere realizzato definitivamente.
Perché gli smartphone e gli agenti IA non vanno (per ora) d’accordo
Gli smartphone moderni sono progettati attorno a ecosistemi chiusi e applicazioni separate. Ogni app custodisce dati e autorizzazioni all’interno di confini definiti dal sistema operativo. Questo modello protegge la sicurezza e la privacy, ma rende difficile per un agente IA muoversi liberamente tra servizi diversi, ad esempio leggere una chat, confrontarla con il calendario, aprire una mappa e completare una prenotazione senza interventi intermedi dell’utente.
Per funzionare realmente, un agente IA dovrebbe avere accesso profondo al telefono: conoscere il contesto e agire all’interno di applicazioni sviluppate da aziende diverse.
È un passaggio delicato, poiché ogni azione comporta rischi. Un errore nella prenotazione di un viaggio o l’invio di un’informazione privata al destinatario sbagliato potrebbe causare danni significativi. Per questo Apple, Google e Samsung procedono con cautela, limitando molte funzioni a servizi controllati e mercati selezionati.
C’è anche un problema di interfaccia. Le app non sono progettate per essere gestite da un’intelligenza artificiale esterna, ma per essere utilizzate direttamente dalle persone. Molte operazioni richiedono conferme manuali e passaggi pensati per essere completati con dei tocchi sullo schermo. Trasformare tutto questo in un flusso fluido, in cui l’IA comprende l’obiettivo e completa il compito, richiede nuove regole tra sistema operativo e servizi online.
È per questo che l’agent-phone di OpenAI appare (ancora) un progetto ambizioso.
I commenti sono chiusi.