WhatsApp introduce le conversazioni private con Meta AI: scopri di cosa si tratta e il loro funzionamento.
Leggi in app
Il 13 maggio WhatsApp ha comunicato di aver avviato la distribuzione della funzionalità chat in incognito in collaborazione con Meta AI, l’intelligenza artificiale sviluppata da Meta, il gruppo responsabile di Facebook, Instagram, Threads e WhatsApp.
Questa funzione si basa sulla tecnologia Private Processing di Meta, che crea un contesto sicuro, in cui i messaggi non vengono memorizzati e scompaiono automaticamente al termine della sessione o, in alternativa, quando l’app viene chiusa o il dispositivo viene bloccato.
Le chat in incognito sono completamente private e nessuno ha accesso a esse, nemmeno Meta stessa; inoltre, le conversazioni non verranno utilizzate per addestrare i modelli di intelligenza artificiale (IA).
Questa è la risposta alle critiche emerse riguardo ai dati personali, un tema controverso per le IA e che, nel caso di WhatsApp, ha suscitato grande attenzione quando negli Stati Uniti alcune conversazioni tra utenti e la chatbot Meta AI sono state rese pubbliche.
Ci sono vari aspetti sui quali né WhatsApp né Meta si sono soffermate, dando origine a tre considerazioni.
Cosa è e come funziona la modalità chat in incognito con Meta AI
La chat in incognito con Meta AI è una modalità di WhatsApp che permette di interagire con l’IA in uno spazio riservato. Quando attivata, la conversazione diventa temporanea e viene gestita in un ambiente sicuro, noto come Private Processing, che, come spiega Meta, utilizza una macchina virtuale temporanea creata esclusivamente per elaborare le richieste degli utenti e poi distrutta, assicurando che la memoria venga svuotata (lo scambio di messaggi) e i log eliminati.
Queste caratteristiche si applicano solo alle conversazioni con le IA e non allo scambio di messaggi tra utenti.
Meta AI, invece, è l’assistente artificiale di Meta integrato nelle sue applicazioni (WhatsApp, Instagram e Messenger). È progettato per rispondere a domande, generare contenuti, assistere nelle conversazioni e fornire informazioni in tempo reale.
Attualmente non è possibile stabilire quando questa modalità sarà accessibile anche agli utenti italiani.
I limiti della modalità incognito
I limiti sono rappresentati da tre interrogativi riguardanti la cybersicurezza, la privacy e la conseguente responsabilità delle aziende che sviluppano modelli IA.
Secondo la società di cybersecurity Trail of Bits, la tecnologia Private Processing è efficace ma richiede rigore in ogni fase, dalla distribuzione alla manutenzione.
Prima del lancio di Private Processing, sono state individuate 28 vulnerabilità (8 delle quali gravi) che sono state corrette.
Il fatto che l’app Meta non sia Open source esclude la possibilità di una revisione da parte di terzi e quindi gli utenti devono informarsi e decidere autonomamente se fidarsi o meno.
Meta afferma di non poter accedere al contenuto dei messaggi, e questo possiamo considerarlo certo, a differenza dei metadati che vengono raccolti e conservati. I metadati non permettono di leggere le conversazioni, ma possono essere utilizzati per ricostruire chi ha utilizzato la funzionalità incognito, quando e quante volte l’ha utilizzata.
La privacy funge da ponte per le responsabilità di Meta e delle altre aziende che sviluppano modelli IA.
Ritorna alla mente il caso del ventenne Phoenix Ikner che, nel 2025 in Florida, dopo aver chiesto a ChatGpt informazioni su come utilizzare una pistola, ha sparato uccidendo due persone e ferendone cinque.
Situazioni simili si sono verificate anche in precedenza. A gennaio del 2025, Matthew Livelsberger ha fatto esplodere un Tesla cybertruck nei pressi del Trump Hotel di Las Vegas. Un attentato pianificato con l’assistenza di diverse chatbot, tra cui, ancora una volta, ChatGpt.
In seguito a questi eventi, l’opinione pubblica e la giustizia tendono a puntare il dito contro chi sviluppa IA. Infatti, in queste ore, si sta discutendo una causa in cui OpenAI (che sviluppa ChatGpt) è accusata di aver alimentato le ossessioni di Ikner e, in modo complice e involontario, di aver affermato che un atto violento può essere giustificato. Secondo l’accusa, OpenAI avrebbe dovuto comprendere che le conversazioni tra Ikner e ChatGpt fossero il preludio a una strage, allertando le autorità.
Ritornando alla funzionalità incognito di Meta AI, la privacy totale nasconde gli scambi che gli utenti hanno con la chatbot e questo esclude che Meta possa essere accusata di non aver riconosciuto segnali allarmanti, di non aver impedito danni prevedibili e di aver contribuito a fornire informazioni potenzialmente pericolose.
Se la privacy deve essere sempre garantita o può essere violata in circostanze particolari è un tema di numerosi dibattiti contemporanei che, ad oggi, rimangono irrisolti.
I commenti sono chiusi.