Come Apple userà Gemini per la nuova Siri

Come Apple userà Gemini per la nuova Siri 1

“È un po’ come nel mondo delle auto di Formula 1: molti team utilizzano lo stesso motore, eppure ognuno mantiene la propria identità, con risultati che possono variare notevolmente”. Così l’analista Carolina Milanesi descrive l’accordo tra Apple e Google per utilizzare la piattaforma di intelligenza artificiale Gemini come motore della nuova Siri e di altre funzionalità di Apple Intelligence. Nel comunicato diffuso sul blog di Google, si fa riferimento a una collaborazione pluriennale, sottolineando che l’elaborazione rimarrà in esecuzione sui dispositivi Apple e tramite Private Cloud Compute, rispettando gli standard di privacy di Cupertino.

Questa iniziativa arriva dopo un periodo difficile per lo sviluppo dell’intelligenza artificiale di Apple, caratterizzato da ritardi, ristrutturazioni e dalla necessità di colmare rapidamente il divario percepito tra Siri e i chatbot di ultima generazione. Un aspetto ricorrente nelle analisi è il desiderio di mantenere Siri come interfaccia e identità, evitando che l’utente percepisca una transizione verso un assistente brandizzato Google. Le risposte non farebbero alcun riferimento a Google o Gemini, a differenza di quanto avviene attualmente con .

Dal dispositivo al cloud

La privacy è il fulcro che rende credibile l’operazione agli occhi di Apple. La promessa, ribadita anche nel comunicato di Google, è che Apple Intelligence continuerà a operare sui dispositivi e su Private Cloud Compute.

Private Cloud Compute rappresenta la risposta architetturale di Apple al problema tipico dei modelli di grandi dimensioni: quando la potenza di calcolo necessaria supera quella disponibile localmente, è necessaria un’infrastruttura server, ma senza trasformare la richiesta in un flusso di dati che approda a un cloud generico. Apple descrive Private Cloud Compute come un sistema progettato con Apple Silicon e un sistema operativo basato su iOS, concepito per l’elaborazione privata nel cloud, specificando che i dati inviati a PCC non sono accessibili a terzi né ad Apple, insieme a meccanismi di verifica per i ricercatori di sicurezza.

Come spiegato durante la WWDC 2024, dove è stata presentata Apple Intelligence, se una richiesta può essere elaborata localmente, rimane sul dispositivo; se è necessaria una maggiore capacità di ragionamento o un modello più grande, la richiesta viene gestita da PCC. Questo schema offre due vantaggi immediati: riduzione della latenza e minimizzazione dei dati in uscita dal dispositivo nei casi semplici; elevata potenza di calcolo nei casi complessi, ma all’interno di un perimetro controllato da Apple.

Integrazione, adattamento, distillazione

È ora importante comprendere cosa significhi che i modelli fondativi di Apple saranno “basati” su Gemini. Il comunicato pubblico rimane deliberatamente generico.

Secondo The Information, Apple avrebbe ampie possibilità di adattare il comportamento del modello, richiedendo a Google modifiche specifiche quando necessario, ma gestendo internamente l’allineamento e il fine tuning per garantire che le risposte seguano lo stile e le preferenze di Apple.

Un’interpretazione più specifica è che Gemini potrebbe essere utilizzato come modello “maestro” in un processo di distillazione: un modello grande e potente trasferisce capacità a modelli più piccoli e ottimizzati, che poi operano su dispositivo e su PCC come modelli fondativi di Apple. In questa versione, l’utente non interagirebbe mai “con Gemini in sé”, ma con modelli Apple che hanno appreso dal modello di Google durante la fase di addestramento. In questo modo, Apple potrà affermare che il proprio modello funziona sul dispositivo e su PCC senza dipendere dai server Google, pur beneficiando delle capacità di Gemini. “Google non sarà coinvolta in nessuna fase dell’interazione con l’utente, dato che Gemini è utilizzato esclusivamente per sviluppare i modelli di Apple e non per sostituirli”, scrive infatti The Information.

I tre livelli non si escludono: accordo tecnologico con Gemini come base, esecuzione su stack Apple, adattamento comportamentale gestito da Apple, con la distillazione come possibile meccanismo chiave per trasferire “conoscenza e capacità” in modelli più leggeri.

Server, data center e chip AI proprietari

Apple può permettersi un approccio così ambizioso sulla privacy perché mira a controllare anche l’hardware. L’azienda ha annunciato nel febbraio 2025 un piano di investimenti negli Stati Uniti che include una nuova struttura a Houston per la produzione di server a sostegno di Apple Intelligence. Nell’agosto 2025 ha confermato l’espansione dell’impegno negli Stati Uniti e ha citato la struttura di Houston come parte della produzione di server avanzati. Che – sembra – saranno distintivi: secondo l’analista Ming Chi Kuo, entro la metà dell’anno Apple avvierà la produzione di chip per server AI progettati internamente, con nuovi data center specifici per carichi AI previsti per il 2027. Ci sarebbero già tracce di un progetto interno dedicato ai chip per server di intelligenza artificiale, con un nome in codice (“Baltra”), e una collaborazione con Broadcom su un processore a chiplet, componenti modulari combinati per costruire un chip più grande e scalabile.

Attualmente, Apple Intelligence può già fare affidamento su server basati su Apple Silicon, ma il passo successivo è ottimizzare l’infrastruttura per l’inferenza dei modelli generativi, con attese migliorie in termini di prestazioni, consumi e gestione termica. La promessa di AI su dispositivo o su cloud privato non è solo un vincolo etico o di marketing, ma diventa un vantaggio competitivo: se il calcolo AI cresce realmente, avrà successo chi lo esegue efficacemente, su larga scala, con costi sostenibili e con latenza compatibile con un assistente in tempo reale.

Architettura ibrida

Un altro snodo tecnico è la coesistenza di due mondi. Da un lato, i compiti deterministici e a basso rischio, come timer, promemoria, invio di messaggi a contatti in rubrica. Dall’altro, le richieste ambigue o di informazione, che richiedono interpretazione e ragionamento. Apple starebbe sviluppando un sistema ibrido in cui le funzioni tradizionali rimangono gestite localmente con logiche affidabili, mentre il livello LLM interviene quando la richiesta non è chiara o richiede inferenze, per esempio dedurre chi sia “mamma” anche se non esiste un contatto salvato con quel nome, analizzando contesto e cronologia. Si tratterebbe di unire due mondi in un’unica Siri, capace di decidere quale motore utilizzare senza interrompere l’esperienza, come accade invece oggi con ChatGPT, dove ogni volta deve essere autorizzato l’uso.

Secondo Reuters, l’integrazione di ChatGPT rimarrebbe come opzione su base opt in per richieste complesse, mentre Gemini diventerebbe la base per l’evoluzione principale dei modelli Apple. Siri, in base al tipo di richiesta, ai permessi concessi e alle capacità necessarie, deciderebbe quindi se rispondere con il livello tradizionale, con i modelli Apple potenziati dall’accordo Gemini, oppure con un fornitore esterno in modalità esplicita. È un approccio che minimizza le frizioni per l’utente e consente ad Apple di mantenere un controllo graduale del rollout e dei rischi.

Il post di Google parla di “una Siri più personalizzata in arrivo quest’anno”, riferendosi al 2026. Alcune funzioni saranno disponibili in primavera, probabilmente con iOS 26.4 e altre, più avanzate, con la WWDC, a giugno. Questa gradualità è coerente con la complessità dell’integrazione: non si tratta solo di migliorare le risposte, ma di rendere affidabile un assistente che opera su dati personali, contatti, calendario, messaggi e applicazioni, all’interno di vincoli di sicurezza elevati.

Meno link, più empatia

Quando si richiede un’informazione a Siri, nella migliore delle ipotesi si ottiene in risposta un elenco di risultati web o l’apertura del browser su una pagina. Secondo The Information, l’obiettivo sarebbe spostare Siri verso risposte conversazionali complete, accompagnate da citazioni delle fonti, in modo simile ai chatbot moderni. Dal punto di vista tecnico, questo tende a richiedere una procedura di recupero delle informazioni, dove il sistema seleziona prima fonti rilevanti e poi chiede al modello di sintetizzare, mantenendo traccia della provenienza delle varie affermazioni. È un passaggio cruciale anche per minimizzare allucinazioni e aumentare la fiducia, perché la citazione delle fonti è un vincolo operativo che impone disciplina al sistema. E per questo, chi meglio di Google e della sua AI Overview?

Diversi commentatori segnalano un’altra area su cui Apple si starebbe concentrando per migliorare Siri: la gestione di conversazioni a forte impatto emotivo, come solitudine o sconforto. La nuova versione dell’assistente personale sarebbe in grado di fornire risposte più empatiche, simili a quelle dei chatbot. Un obiettivo da perseguire con estrema cautela, visto che aumentano i casi di utenti vulnerabili la cui situazione è peggiorata dopo conversazioni con chatbot, proprio perché il sistema può fraintendere il contesto o non cogliere la gravità. Per Apple, che costruisce gran parte della propria reputazione su responsabilità e sicurezza, questo ambito richiede inevitabilmente barriere aggiuntive, policy rigorose e meccanismi di escalation verso risorse reali in presenza di segnali di rischio.

Se l’implementazione seguirà la linea descritta da comunicati e ricostruzioni, Siri dovrebbe cambiare in tre modi evidenti. Il primo è la qualità del dialogo: meno risposte spezzate, maggiore contesto, più capacità di seguire una conversazione e di gestire ambiguità. Il secondo è la “conoscenza del mondo” resa utile: risposte dirette, sintetiche e motivate, con citazioni, invece di un semplice rinvio a link. Il terzo è l’affidabilità operativa: l’unificazione tra comandi deterministici e ragionamento probabilistico, con un instradamento intelligente che riduce errori e mantiene l’utente all’interno di un’unica esperienza.

Cosa ci guadagna Google

Dal punto di vista di Google, entrare nel cuore dell’esperienza Siri significa diventare il riferimento tecnologico per una parte enorme della base installata Apple. Reuters inquadra l’operazione come un rafforzamento di Alphabet nella corsa all’AI e come un’estensione naturale della relazione storica tra le due aziende.

Allo stesso tempo, proprio perché Apple e Google hanno già un rapporto economicamente rilevante sulla ricerca predefinita, una partnership profonda sull’AI potrebbe attirare l’attenzione dei regolatori (per ora, l’unico a protestare è stato Elon Musk, che ha definito l’accordo “una irragionevole concentrazione di potere”). Anche in assenza di dati economici completi, questo è un tema che emerge nelle analisi, poiché l’AI sta diventando un livello di accesso all’informazione e ai servizi non meno importante della ricerca web.

Il valore dell’accordo è stimato in diversi miliardi di dollari (si parla di 5) per alcuni anni, ma per utilizzare Gemini Apple pagherà molto meno di quanto Google ha speso finora per essere il motore di ricerca predefinito sull’iPhone.

Una storia che si ripete

Un paragone utile per capire il significato della mossa su Gemini è quello tra Mappe di Apple e Google Maps. Quando iPhone fu lanciato, Apple non disponeva di una soluzione cartografica propria e per anni l’esperienza delle mappe fu costruita su Google Maps, con un’integrazione profonda ma comunque dipendente da un partner esterno. Con il passare del tempo, Apple decise di internalizzare quella componente, lanciando Apple Maps e investendo in dati, mezzi di raccolta, infrastrutture e algoritmi fino a controllare l’intero stack, non solo per ragioni di prodotto ma anche per autonomia strategica. La dinamica con Gemini ricorda quel passaggio: Apple si affida a un leader di settore per colmare rapidamente un gap percepito, mantenendo però la propria interfaccia, la propria logica di integrazione e, soprattutto, la propria traiettoria verso l’indipendenza, oggi rappresentata dai Foundation Models e dal Private Cloud Compute. La differenza, rispetto alle mappe, è che qui la dipendenza non riguarda solo un servizio ma un livello cognitivo trasversale del sistema operativo, quindi l’obiettivo non è semplicemente “sostituire un fornitore”, ma utilizzare una base tecnologica esterna come ponte mentre Apple consolida modelli, infrastruttura e silicio necessari a rendere l’assistente competitivo senza rinunciare al controllo su privacy e user experience. E, in ogni caso, il debutto di Mappe fu un tale disastro che lo stesso Tim Cook si scusò per la scarsa qualità della soluzione Apple.

Lascia una risposta

L'indirizzo email non verrà pubblicato.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More