Come Apple userà Gemini per la nuova Siri
“È un po’ come accade con le auto di Formula 1: molti team utilizzano lo stesso motore, eppure ognuno mantiene la propria individualità, portando a risultati molto diversi”. Questo è il commento dell’analista Carolina Milanesi riguardo l’accordo tra Apple e Google per utilizzare la piattaforma di intelligenza artificiale Gemini come nucleo della nuova Siri e di altre funzionalità di Apple Intelligence. Nel comunicato pubblicato sul blog di Google si fa riferimento a una collaborazione pluriennale, sottolineando che l’elaborazione continuerà a avvenire sui dispositivi Apple e tramite Private Cloud Compute, nel rispetto degli standard di privacy di Cupertino.
Questa iniziativa arriva dopo un periodo complesso per lo sviluppo dell’intelligenza artificiale di Apple, contrassegnato da ritardi, ristrutturazioni e dalla necessità di colmare rapidamente il divario percepito tra Siri e i chatbot di nuova generazione. Un aspetto ricorrente nelle analisi è la volontà di mantenere Siri come interfaccia e identità, evitando che l’utente percepisca un passaggio a un assistente con marchio Google. Le risposte non farebbero alcun riferimento a Google o Gemini, a differenza di quanto avviene attualmente con ChatGPT.
Dal dispositivo al cloud
La privacy è il fulcro che rende credibile l’operazione agli occhi di Apple. La promessa, ribadita anche nel comunicato di Google, è che Apple Intelligence continui a operare sui dispositivi e su Private Cloud Compute.
Private Cloud Compute rappresenta la risposta architetturale di Apple a un problema comune dei modelli di grandi dimensioni: quando la potenza di calcolo necessaria supera quella disponibile localmente, è necessaria un’infrastruttura server, ma senza trasformare la richiesta in un flusso di dati che converge in un cloud generico. Apple descrive Private Cloud Compute come un sistema realizzato con Apple Silicon e un sistema operativo basato su iOS, concepito per l’elaborazione privata nel cloud, specificando che i dati inviati a PCC non sono accessibili a terzi e nemmeno ad Apple, insieme a meccanismi di verificabilità per i ricercatori di sicurezza.
Come spiegato durante la WWDC 2024, dove ha debuttato Apple Intelligence, se una richiesta può essere soddisfatta localmente, rimane sul dispositivo; se è necessaria maggiore capacità di elaborazione o un modello più grande, la richiesta viene gestita da PCC. Questo schema consente due vantaggi immediati: riduzione della latenza e minimizzazione dei dati che lasciano il dispositivo nei casi semplici; potenza di calcolo maggiore nei casi complessi, ma all’interno di un perimetro controllato da Apple.
Integrazione, adattamento, distillazione
È ora importante comprendere cosa significhi che gli Apple Foundation Models saranno “basati” su Gemini. Il comunicato pubblico rimane volutamente generico.
Secondo The Information, Apple avrebbe ampio margine per modificare il comportamento del modello, richiedendo a Google aggiustamenti mirati quando necessario, ma gestendo internamente l’allineamento e il fine tuning affinché le risposte siano coerenti con lo stile e le scelte di Apple.
Un’interpretazione più specifica è che Gemini possa essere utilizzato come modello “maestro” in un processo di distillazione: un modello grande e potente trasferisce capacità a modelli più piccoli e ottimizzati, che poi operano su dispositivo e su PCC come Apple Foundation Models. In questo scenario, l’utente non interagirebbe mai direttamente con “Gemini”, ma con modelli Apple che hanno appreso dal modello di Google durante la fase di addestramento. Così Apple potrà affermare che il suo modello opera sul dispositivo e su PCC senza dipendere dai server Google, pur tutelando i vantaggi offerti da Gemini. “Google non sarà coinvolta in alcuna fase dell’interazione con l’utente, poiché Gemini viene utilizzato esclusivamente per sviluppare i modelli di Apple e non per sostituirli,” scrive infatti The Information.
Le tre dimensioni non si escludono: accordo tecnologico con Gemini come base, esecuzione su stack Apple, adattamento comportamentale gestito da Apple, con la distillazione come possibile meccanismo chiave per trasferire “conoscenza e capacità” a modelli più leggeri.
Server, data center e chip AI proprietari
Apple può permettersi un approccio così ambizioso sulla privacy perché desidera controllare anche l’hardware. L’azienda ha annunciato nel febbraio 2025 un piano di investimenti negli Stati Uniti che include una nuova struttura a Houston per la produzione di server a supporto di Apple Intelligence. Nell’agosto 2025 ha ribadito l’espansione dell’impegno negli Stati Uniti e ha citato la struttura di Houston come parte della produzione di server avanzati. Questi – sembra – saranno diversi da tutti gli altri: secondo l’analista Ming Chi Kuo, entro la metà dell’anno Apple avvierà la produzione di chip per server AI progettati internamente, con nuovi data center specifici per carichi AI previsti per il 2027. Esisterebbero già indizi di un progetto interno dedicato a chip per server di intelligenza artificiale, un nome in codice (“Baltra”), e soprattutto una collaborazione con Broadcom su un processore a chiplet, componenti modulari combinati per costruire un chip più grande e scalabile.
Attualmente, Apple Intelligence può già avvalersi di server basati su Apple Silicon, ma il passo successivo è ottimizzare l’infrastruttura per l’inferenza dei modelli generativi, con benefici attesi in termini di prestazioni, consumi e gestione termica. La promessa di AI su dispositivo o su cloud privato non è solo un vincolo etico o di marketing, ma diventa un vantaggio competitivo: se il calcolo AI cresce realmente, emergono come vincitori coloro che lo eseguono efficacemente, su larga scala, con costi sostenibili e con latenza compatibile con un assistente in tempo reale.
Architettura ibrida
Un altro nodo tecnico è la coesistenza tra due mondi. Da un lato, i compiti deterministici e a basso rischio, come timer, promemoria, invio di messaggi a contatti in rubrica. Dall’altro, le richieste ambigue o informative, dove è necessaria interpretazione e ragionamento. Apple starebbe sviluppando un sistema ibrido in cui le funzioni tradizionali continuano a essere gestite localmente con logiche affidabili, mentre il livello LLM interviene quando la richiesta non è chiara o richiede inferenze, ad esempio dedurre chi sia “mamma” anche se non esiste un contatto salvato con quel nome, analizzando contesto e cronologia. Si tratterebbe di unire due mondi in un’unica Siri, capace di decidere quale motore utilizzare senza interrompere l’esperienza, a differenza di quanto accade oggi con ChatGPT, dove ogni volta è necessaria l’autorizzazione per l’uso.
Secondo Reuters, l’integrazione di ChatGPT rimarrebbe come opzione su base opt-in per richieste complesse, mentre Gemini diventerebbe la base per l’evoluzione principale dei modelli Apple. Siri, a seconda del tipo di richiesta, dei permessi concessi e delle capacità necessarie, selezionerebbe quindi se rispondere con il livello tradizionale, con i modelli Apple potenziati dall’accordo Gemini, oppure con un fornitore esterno in modalità esplicita. Questo approccio riduce le frizioni per l’utente e consente ad Apple di mantenere un controllo graduale del rollout e dei rischi.
Il post di Google menziona “una Siri più personalizzata in arrivo quest’anno”, riferendosi al 2026. Alcune funzionalità arriveranno in primavera, probabilmente con iOS 26.4 e altre, più avanzate, con la WWDC a giugno. Questa gradualità è coerente con la complessità dell’integrazione: non si tratta solo di rispondere meglio, ma di garantire un assistente affidabile che opera su dati personali, contatti, calendario, messaggi e applicazioni, all’interno di elevati vincoli di sicurezza.
Meno link, più empatia
Quando si richiede un’informazione a Siri, nella migliore delle ipotesi si ottiene in risposta un elenco di risultati web o l’apertura del browser su una pagina. Secondo The Information, l’obiettivo sarebbe spostare Siri verso risposte conversazionali complete, accompagnate da citazioni delle fonti, in modo simile ai moderni chatbot. Dal punto di vista tecnico, questo tende a richiedere una procedura di recupero delle informazioni, dove il sistema prima seleziona fonti rilevanti e poi chiede al modello di sintetizzare, mantenendo traccia della fonte delle varie affermazioni. È un passaggio cruciale anche per ridurre le allucinazioni e aumentare la fiducia, poiché la citazione delle fonti è un vincolo operativo che impone disciplina al sistema. E per questo, chi meglio di Google e della sua AI Overview?
Diversi commentatori segnalano un’altra area in cui Apple si starebbe concentrando per migliorare Siri: la gestione di conversazioni ad alto impatto emotivo, come solitudine o sconforto. La nuova versione dell’assistente personale sarebbe capace di fornire risposte più empatiche, simili a quelle dei chatbot. Un obiettivo da perseguire con estrema cautela, dato che aumentano i casi di utenti vulnerabili la cui situazione è peggiorata dopo interazioni con chatbot, proprio perché il sistema può fraintendere il contesto o non cogliere la gravità. Per Apple, che costruisce gran parte della propria reputazione su responsabilità e sicurezza, questo ambito richiede necessariamente barriere aggiuntive, politiche rigorose e meccanismi di escalation verso risorse reali in presenza di segnali di rischio.
Se l’implementazione seguirà la linea descritta nei comunicati e nelle ricostruzioni, Siri dovrebbe evolversi in tre modi evidenti. Il primo è la qualità del dialogo: meno risposte spezzate, maggiore contesto, maggiore capacità di seguire una conversazione e gestire ambiguità. Il secondo è la “conoscenza del mondo” resa utile: risposte dirette, sintetiche e motivate, con citazioni, invece di semplici rimandi a link. Il terzo è l’affidabilità operativa: l’unificazione tra comandi deterministici e ragionamento probabilistico, con un instradamento intelligente che riduce gli errori e mantiene l’utente all’interno di un’unica esperienza.
Cosa ci guadagna Google
Dal punto di vista di Google, entrare nel cuore dell’esperienza Siri significa diventare il riferimento tecnologico per una parte enorme della base installata Apple. Reuters inquadra l’operazione come un rafforzamento di Alphabet nella corsa all’AI e come un’estensione naturale della storica relazione tra le due aziende.
Allo stesso tempo, proprio perché Apple e Google hanno già un rapporto economicamente significativo sulla ricerca predefinita, una partnership profonda sull’AI potrebbe attirare l’attenzione dei regolatori (finora, l’unico a protestare è stato Elon Musk, che ha definito l’accordo “una irragionevole concentrazione di potere”). Anche in assenza di dati economici completi, questo è un tema che riemerge nelle analisi, poiché l’AI sta diventando un livello di accesso all’informazione e ai servizi non meno importante della ricerca web.
Il valore dell’accordo è stimato in diversi miliardi di dollari (si parla di 5) per alcuni anni, ma per utilizzare Gemini Apple pagherà molto meno di quanto Google ha sborsato finora per essere il motore di ricerca predefinito sull’iPhone.
Una storia che si ripete
Un confronto utile per comprendere il significato della mossa su Gemini è quello tra le Mappe di Apple e Google Maps. Quando l’iPhone è nato, Apple non aveva una soluzione cartografica propria e per anni l’esperienza delle mappe è stata costruita su Google Maps, con un’integrazione profonda ma comunque dipendente da un partner esterno. Con il tempo, Apple ha scelto di internalizzare quella componente, lanciando Apple Maps e investendo in dati, mezzi di raccolta, infrastrutture e algoritmi fino a controllare l’intero stack, non solo per motivi di prodotto ma anche per autonomia strategica. La dinamica con Gemini somiglia a quel passaggio: Apple si avvale di un leader di settore per colmare rapidamente un gap percepito, mantenendo però la propria interfaccia, la propria logica di integrazione e, soprattutto, la propria traiettoria verso l’indipendenza, oggi rappresentata dai Foundation Models e dal Private Cloud Compute. La differenza, rispetto alle mappe, è che qui la dipendenza non riguarda solo un servizio, ma un livello cognitivo trasversale del sistema operativo, quindi l’obiettivo non è semplicemente “sostituire un fornitore”, ma utilizzare una base tecnologica esterna come ponte mentre Apple consolida modelli, infrastruttura e silicio necessari a rendere l’assistente competitivo senza compromettere il controllo sulla privacy e sull’esperienza utente. E comunque, il debutto delle Mappe fu un tale disastro che lo stesso Tim Cook chiese scusa per la scarsa qualità della soluzione Apple.