Google raggiunge un accordo nella controversia sulla privacy: sanzione di 68 milioni di dollari.
Alla fine, siamo già a conoscenza di questo. Gli assistenti virtuali alimentati dall’IA, come Siri e Google Assistant, sono in grado di ascoltarci. Tuttavia, risulta complicato accertare se vengano ascoltati e registrati in modo costante o se si attivino solo su specifiche parole chiave, le note wake words. In effetti, a tutti noi è capitato di percepire il nostro assistente virtuale, “nascosto” nel proprio smartphone, smartwatch o tablet, rispondere a domande che non avevamo posto. L'<b'accordo di risarcimento da 68 milioni dollari stipulato google per risolvere una class action negli Stati Uniti riguardante le accuse di violazione della privacy legate a Google Assistant, avvicina il sospetto (di essere ascoltati) alla certezza.
È importante chiarire che Google respinge ogni accusa. Non riconosce che il sistema ascolti le nostre conversazioni, ma comunque accetta l’accordo e offre un risarcimento di 20 dollari agli utenti lesi che hanno partecipato alla class action, piuttosto che affrontare un lungo processo, il cui eco mediatico sarebbe stato sicuramente più potente. D’altronde, esattamente un anno fa, a gennaio 2025, anche Apple ha sborsato 95 milioni per una causa riguardante Siri, per ragioni analoghe, e gli utenti risarciti hanno ricevuto tra 8 e 40 dollari ciascuno. Ma il diritto alla riservatezza ha davvero così poco valore?
Secondo le denunce, avviate nel 2019, l’assistente virtuale Google Assistant avrebbe registrato le conversazioni private degli utenti senza aver ottenuto il consenso, attivandosi autonomamente in assenza delle parole magiche, Hey Google o Ok Google, che il sistema dovrebbe riconoscere come uniche chiavi d’accesso. Nella class action viene segnalato che le conversazioni ascoltate siano state elaborate e utilizzate per finalità pubblicitarie, per l’invio di annunci mirati. Anche in questo caso, a chi non è mai accaduto di discutere di un prodotto, un oggetto, o una città, per poi ricevere messaggi pubblicitari sui social o nelle email che promuovevano proprio ciò di cui avevamo appena parlato? Se ciò venisse dimostrato in modo oggettivo, si tratterebbe di una evidente violazione della nostra privacy, che in Europa è regolata in modo molto più severo rispetto agli Stati Uniti.
In sua difesa, Google ha sempre affermato che la privacy policy accettata all’attivazione del dispositivo (che probabilmente in pochi leggono), chiarisce che i dati vengono utilizzati per la pubblicità mirata. Tuttavia, non viene in alcun modo menzionata la possibilità che il dispositivo si attivi autonomamente senza alcuna richiesta da parte dell’utente. Se accettiamo l’idea che questi assistenti virtuali possano accendersi per errore rispondendo a quelli che sono definiti “false accepts” durante una nostra conversazione con altre persone, ciò implica che l’ascolto è attivo e costante.
Le aziende coinvolte affermano che, da un punto di vista tecnico, il microfono del dispositivo è attivo, ma non trasmette tutto ciò che diciamo ai server. Il chip dedicato all’audio analizza i suoni alla ricerca di uno specifico schema acustico, mentre l’audio catturato viene sovrascritto continuamente ogni pochi secondi e non viene salvato a meno che non venga identificata la wake word. Da quel momento in poi, la voce viene registrata e inviata ai server per essere trascritta e interpretata dall’IA, che ci restituisce la risposta.
Tuttavia, la class action da 68 milioni di dollari che Google ha acconsentito a pagare, ribadisce ancora una volta il dubbio sul confine sottile tra attivazioni accidentali e volontarie. Quindi, per gli utenti c’è una modalità di protezione? Forse, l’unica soluzione è disattivare le opzioni relative agli assistenti virtuali sui propri dispositivi.
I commenti sono chiusi.