L’IA su misura di Google: cos’è “Personal Intelligence” e come funziona
Illustrazione Google Gemini
Google ha introdotto Personal Intelligence, una nuova funzionalità che permette a Gemini – l’intelligenza artificiale più sofisticata creata dall’azienda di Mountain View e il chatbot che la utilizza – di interagire con Gmail, Google Foto, Google Search e YouTube, analizzando contenuti e cronologie degli utenti per fornire informazioni e risposte “su misura”, personalizzate.
Attualmente in fase Beta e disattivata di default, Personal Intelligence sarà inizialmente disponibile agli abbonati di Google AI Pro e AI Ultra negli Stati Uniti, ma l’azienda ha in programma di estendere questa nuova funzionalità ad altri Paesi e agli utenti free.
Come funziona e a cosa serve Personal Intelligence
Josh Woodward, responsabile dell’app Gemini, di Google Labs e di AI Studio, ha descritto in un post come può operare la nuova “intelligenza personale”.
“Ad esempio – scrive Woodward – due settimane fa avevo bisogno di sostituire le gomme di un minivan Honda del 2019. Mentre aspettavo dal gommista, mi sono reso conto di non conoscere la misura degli pneumatici. Ho chiesto a Gemini. Oggi qualsiasi chatbot è in grado di reperire queste specifiche, ma Gemini ha fatto di più. Ha suggerito diverse opzioni: una per uso quotidiano e un’altra per condizioni climatiche variabili, facendo riferimento ai viaggi familiari in Oklahoma identificati in Google Foto. Successivamente ha raccolto in modo ordinato valutazioni e prezzi per ciascuna opzione. Quando sono arrivato al bancone, mi serviva il numero di targa. Invece di cercarlo o perdere il posto in fila tornando al parcheggio, ho chiesto a Gemini. Ha recuperato il numero di sette cifre da una foto presente in Google Foto e mi ha aiutato a identificare anche l’allestimento specifico del van consultando Gmail. In pochi secondi, era tutto risolto”.
Privacy e controllo dei dati
In precedenza, Gemini poteva accedere alle singole applicazioni Google solo su richiesta esplicita. Con Personal Intelligence, si verifica un salto di qualità: il sistema è in grado di analizzare e collegare informazioni provenienti da più app simultaneamente, estraendo ciò che serve senza che l’utente debba specificare in anticipo la fonte o il luogo della ricerca.
Google ha enfatizzato che la Personal Intelligence non è attivata di default e richiede una scelta consapevole da parte degli utenti, che devono decidere quali applicazioni desiderano collegare.
Anche dopo l’attivazione, Gemini utilizzerà l’IA personale solo nei casi in cui lo ritenga pertinente.
Da Mountain View comunicano, inoltre, che i contenuti di Gmail e Google Foto non verranno impiegati per l’addestramento diretto dei modelli di intelligenza artificiale dell’azienda, ma saranno consultati solo al momento di generare le risposte.
La sfida con OpenAI, Microsoft e Anthropic
Altre aziende hanno già concepito – o lanciato – la propria IA “personale”, ma Google in questo settore possiede un vantaggio difficile da replicare: il controllo su un ecosistema vasto di servizi consumer.
OpenAI e Anthropic dispongono di modelli avanzati offerti come soluzioni autonome, senza però gestire piattaforme di uso quotidiano comparabili a Gmail, YouTube, Foto o Search. Microsoft ha arricchito Copilot con funzioni di memoria e integrazioni nel suo pacchetto Microsoft 365 Copilot, mentre Anthropic ha introdotto Claude Cowork per la gestione dei file.
Tuttavia, la profondità e l’ampiezza dei dati disponibili a Google rimangono, almeno per ora, ineguagliabili.
Disponibilità e futuri sviluppi
Personal Intelligence farà il suo debutto inizialmente sugli account Google personali. Gli utenti Workspace, compresi quelli aziendali, enterprise ed educativi, saranno esclusi per il momento.
La funzionalità sarà accessibile su web, Android e iOS, con una futura integrazione prevista anche nell’AI Mode integrato nel motore di ricerca di Big G.