Uno dei chatbot di intelligenza artificiale più conosciuti a livello globale ha reso pubbliche milioni di conversazioni private.
Chat & Ask AI, una delle applicazioni di intelligenza artificiale più scaricate su Google e Apple, con oltre 50 milioni di utenti, ha esposto centinaia di milioni di messaggi privati a causa di una falla nei propri server. Questa informazione è stata divulgata da una ricerca indipendente e da comunicazioni analizzate e pubblicate dalla testata 404 Media.
I dati compromessi comprendono conversazioni delicate. In alcune di esse, gli utenti richiedono all’assistente virtuale indicazioni su come portare a termine il suicidio. In altre, si chiedono suggerimenti per redigere lettere di addio. Inoltre, ci sono richieste su come creare sostanze stupefacenti come la metanfetamina.
La vulnerabilità rilevata dai ricercatori
La falla è stata scoperta da un esperto di sicurezza indipendente, conosciuto con il nome di “Harry”. Si tratta di uno pseudonimo. La problematicità deriva da una configurazione errata di Google Firebase, una piattaforma di sviluppo mobile ampiamente utilizzata. Secondo il ricercatore, il difetto consentiva a chiunque di registrarsi come utente “autenticato” e di accedere al backend dell’app, dove erano conservati i dati.
“Harry” ha dichiarato di aver avuto accesso a 300 milioni di messaggi appartenenti a oltre 25 milioni di utenti. Un’analisi di un campione di un milione di messaggi ha rivelato cronologie complete, timestamp, nomi attribuiti ai chatbot e i modelli linguistici specifici impiegati (inclusi ChatGPT di OpenAI, Claude di Anthropic e Gemini di Google).
Contenuti delicati esposti. E secondo la legge europea, l’app era considerata sicura
L’episodio riporta l’attenzione sui rischi connessi alla privacy e alla sicurezza dei chatbot. Tra i dati analizzati, sono emerse richieste esplicite come: “Desidero uccidermi, qual è il modo migliore?” o domande su come sintetizzare droghe in contesti ipotetici.
Il settore dell’IA è già sotto scrutinio per episodi recenti in cui i chatbot avrebbero incoraggiato comportamenti autolesionistici. Nonostante le assicurazioni fornite sui siti ufficiali — dove il produttore di Chat & Ask AI, la turca Codeway, vanta standard ISO e conformità GDPR, la normativa europea riguardo al trattamento dei dati degli utenti online — la realtà tecnica ha rivelato una vulnerabilità strutturale.
Cosa è e come funziona Chat & Ask AI
Chat & Ask AI, in realtà, non dispone di un proprio modello di intelligenza artificiale, ma funge da un guscio esterno (termine tecnico, wrapper). L’app opera collegandosi tramite API (le interfacce di programmazione) ai potenti motori linguistici di aziende terze: l’utente scrive un messaggio nell’app, questa lo inoltra a modelli come GPT-4 di OpenAI, Claude di Anthropic o Gemini di Google, e riporta la risposta in un’interfaccia semplificata.
Questo consente a Codeway di fornire un’esperienza multimodale “tutto in uno”, aggiungendo funzionalità extra come la scansione di documenti tramite fotocamera o la generazione di immagini, monetizzando l’accesso a queste tecnologie attraverso abbonamenti premium. Ed è questo che ha determinato il suo successo.
I commenti sono chiusi.