OpenAI sviluppa l’agent-phone: un dispositivo telefonico basato su intelligenza artificiale, privo di applicazioni.

Leggi in app

OpenAI sviluppa l'agent-phone: un dispositivo telefonico basato su intelligenza artificiale, privo di applicazioni.0 OpenAI sviluppa l'agent-phone: un dispositivo telefonico basato su intelligenza artificiale, privo di applicazioni. 2

La funzione vocale del vecchio modello Gpt-4o di OpenAI 

“Oggi, uno smartphone è paragonabile a Times Square: un sovraccarico di informazioni e attenzione dispersa. Ciò che OpenAI intende realizzare è un rifugio tranquillo, un posto dove chiudere la porta quando è necessaria la concentrazione”. Con questa metafora, evocata di recente, Sam Altman ha descritto la filosofia alla base del primo tentativo dell’azienda di cui è CEO, OpenAI, di entrare nel settore dell’hardware.

Le ultime notizie – provenienti dalla catena di fornitura – suggeriscono che il lancio del cosiddetto “agent-phone” sia molto più imminente del previsto. OpenAI avrebbe deciso di accelerare il piano, anticipando la produzione di massa alla prima metà del 2027, con l’intento di presentarsi all’imminente offerta pubblica iniziale con un prodotto fisico concreto e, nelle aspettative dell’azienda che ha sviluppato , innovativo.

L’accelerazione e le alleanze strategiche

La scelta di OpenAI di anticipare il rilascio del suo primo dispositivo, inizialmente previsto per il 2028, risponderebbe a una duplice esigenza strategica: la pressione degli investitori in vista della Initial Public Offering (IPO) – il processo attraverso il quale una società privata si quota per la prima volta su un mercato regolamentato – e la volontà di competere con Apple e Google, che hanno costruito il loro impero su un ecosistema di servizi legati a smartphone e dispositivi connessi.

OpenAI mira a vendere 30 milioni di unità tra il 2027 e il 2028: non si rivolge quindi a una nicchia di sperimentatori, ma aspira a una porzione significativa del mercato globale. Questo volume di produzione richiederebbe una capacità industriale che OpenAI sta sviluppando attraverso alleanze con giganti della manifattura come Luxshare, già fornitore storico di componenti cruciali per l’elettronica di consumo mondiale.

L’obiettivo: uno smartphone per gli agenti IA

Il concetto di “agent-phone” su cui OpenAI sta lavorando rappresenta una trasformazione radicale nel modo in cui gli utenti interagiscono con la tecnologia mobile.

Attualmente, gli smartphone fungono da contenitori di applicazioni che richiedono input manuali continui.

Il dispositivo sviluppato da OpenAI – in collaborazione con il designer Jony Ive, ex designer Apple – si propone invece di funzionare tramite “agenti” IA, ovvero software capaci di operare autonomamente per raggiungere obiettivi complessi su indicazione dell’utente.

Il risultato estremo di questa evoluzione è che la tradizionale griglia di icone sullo schermo potrebbe un giorno scomparire, per lasciare spazio a un flusso di compiti gestiti direttamente dall’intelligenza artificiale, in grado di prenotare voli, spostare file o gestire comunicazioni senza che l’utente debba aprire le singole app.

Per rendere realizzabile questa visione, OpenAI ritiene fondamentale controllare l’intero ecosistema, dal sistema operativo all’hardware, superando i vincoli di sicurezza e privacy imposti dai sistemi chiusi dei produttori attuali.

OpenAI e il silicio taiwanese

Il cuore tecnologico del dispositivo sarà un processore personalizzato sviluppato in collaborazione con MediaTek, azienda taiwanese leader nel settore dei semiconduttori.

Il chip utilizzerà quasi sicuramente l’architettura Dimensity 9600 e sarà prodotto da TSMC (Taiwan Semiconductor Manufacturing Company) con il processo N2P. Questa sigla indica una tecnologia di fabbricazione all’avanguardia che consente di inserire miliardi di transistor in spazi estremamente ridotti, garantendo un’efficienza energetica eccezionale, fondamentale per un dispositivo che deve elaborare costantemente modelli linguistici complessi.

Una delle specifiche tecniche più significative dovrebbe riguardare la “dual-NPU architecture”, una configurazione con due unità di elaborazione neurale. La NPU è una componente del processore dedicata esclusivamente ai calcoli per l’intelligenza artificiale; averne due consente al telefono di gestire simultaneamente compiti diversi, come la comprensione del linguaggio naturale e l’analisi visiva dell’ambiente circostante.

Una vera “dual-NPU” è già stata utilizzata su smartphone commerciali: Huawei la impiegava nel Kirin 980, montato sulla serie Mate 20 nel 2018. Huawei descriveva il Kirin 980 come il primo SoC con Dual-NPU, spiegando che una delle due NPU gestiva il calcolo AI generale, mentre l’altra era dedicata a compiti specifici.

Nel caso del nuovo dispositivo di OpenAI, però, il punto cruciale sarebbe l’uso di una doppia NPU progettata per gestire in parallelo funzioni di AI più avanzate, come l’elaborazione del linguaggio e l’analisi delle immagini in tempo reale.

La firma di Jony Ive e la percezione sensoriale

La collaborazione tra Jony Ive e Sam Altman mira a sviluppare un dispositivo più intuitivo e meno invadente rispetto agli attuali smartphone dominati dallo schermo.

Secondo alcune voci, il primo modello potrebbe avere un display tradizionale molto ridotto, o esserne quasi privo, e affidarsi principalmente a comandi vocali e alla cosiddetta “visual sensing”, la “percezione visiva” che consentirebbe al dispositivo di osservare l’ambiente e interpretare il contesto in tempo reale.

Un ruolo fondamentale sarà svolto dall’Image Signal Processor, o ISP: il componente che trasforma la luce catturata dalla fotocamera in dati digitali. In questo caso, l’ISP sarebbe potenziato per fornire all’intelligenza artificiale informazioni visive più ricche e immediate.

Accanto allo smartphone, il team guidato da Jony Ive starebbe lavorando anche a un secondo prodotto per la casa: un assistente progettato per essere posizionato su un tavolo o un mobile, con telecamera integrata, atteso già per febbraio prossimo.

Con uno smartphone e un dispositivo domestico, OpenAI si spingerebbe oltre il software, all’interno di oggetti pensati per accompagnare la vita quotidiana degli utenti.

Il sogno di uno smartphone senza app

L’idea di uno smartphone governato da agenti IA è diventata uno degli obiettivi principali dell’industria mobile dopo il successo di ChatGpt. Da allora, i principali produttori hanno cercato di trasformare il telefono da semplice contenitore di app a dispositivo capace di comprendere le intenzioni dell’utente e completare operazioni in autonomia.

La promessa è sempre la stessa: meno passaggi manuali e un assistente che si occupi di tutto autonomamente, muovendosi tra messaggi, calendario, mappe e servizi personali.

Il percorso, tuttavia, si è rivelato più lento delle aspettative.

Il caso più evidente è Apple, che aveva presentato Apple Intelligence come il passo verso una Siri più personale e capace di operare all’interno delle app, salvo poi rinviare parte delle funzioni più ambiziose. La società ha anche accettato un accordo da 250 milioni di dollari negli Stati Uniti per risolvere una causa legata alle promesse sull’intelligenza artificiale di Siri, senza ammettere responsabilità.

Google e Samsung si sono mosse con maggiore rapidità sul fronte delle funzioni disponibili, ma anche in questi casi l’esperienza rimane frammentata.

Sui Pixel, Gemini è ormai integrato in diversi servizi e Google continua ad aggiungere strumenti di AI contestuale, ma molte novità dipendono dal modello, dalla lingua e dal Paese in cui il telefono viene utilizzato.

Samsung ha seguito una traiettoria simile con Galaxy AI, puntando su traduzione, assistenza alla scrittura e funzioni contestuali. Ma anche nel caso dell’azienda sudcoreana, il sogno di un’IA che possa connettere più app e risolvere una sequenza di operazioni complesse, in totale autonomia, è ancora lontano dall’essere realizzato definitivamente.

Perché gli smartphone e gli agenti IA non vanno (per ora) d’accordo

Gli smartphone moderni sono progettati attorno a ecosistemi chiusi e applicazioni separate. Ogni app custodisce dati e autorizzazioni all’interno di confini definiti dal sistema operativo. Questo modello protegge la sicurezza e la privacy, ma rende difficile per un agente IA muoversi liberamente tra servizi diversi, ad esempio leggere una chat, confrontarla con il calendario, aprire una mappa e completare una prenotazione senza interventi intermedi dell’utente.

Per funzionare realmente, un agente IA dovrebbe avere accesso profondo al telefono: conoscere il contesto e agire all’interno di applicazioni sviluppate da aziende diverse.

È un passaggio delicato, poiché ogni azione comporta rischi. Un errore nella prenotazione di un viaggio o l’invio di un’informazione privata al destinatario errato potrebbe causare danni significativi. Per questo Apple, Google e Samsung procedono con cautela, limitando molte funzioni a servizi controllati e mercati selezionati.

C’è anche un problema di interfaccia. Le app non sono progettate per essere gestite da un’intelligenza artificiale esterna, ma per essere utilizzate direttamente dalle persone. Molte operazioni richiedono conferme manuali e passaggi pensati per essere completati con dei tocchi sullo schermo. Trasformare tutto questo in un flusso fluido, in cui l’IA comprende l’obiettivo e completa il compito, richiede nuove regole tra sistema operativo e servizi online.

È per questo che l’agent-phone di OpenAI appare (ancora) un progetto ambizioso.

I commenti sono chiusi.