Home Tecnologia Meta AI su WhatsApp condivisione del numero privato e rischi per la privacy emersi nel 2025
Tecnologia

Meta AI su WhatsApp condivisione del numero privato e rischi per la privacy emersi nel 2025

Condividi
Condividi

Una recente vicenda ha messo in luce i rischi legati all’utilizzo dei chatbot intelligenti su piattaforme di messaggistica come WhatsApp. In particolare, un utente inglese si è trovato coinvolto in un caso in cui Meta AI ha restituito un numero di telefono privato come risposta a una richiesta di assistenza. L’episodio ha riacceso il dibattito sulla gestione delle informazioni personali da parte delle intelligenze artificiali, ancora alle prese con problemi legati alla riservatezza. E il caso non si limita soltanto a WhatsApp.

L’errore di Meta AI su WhatsApp: il numero privato passato per aziendale

Nel marzo 2025, Barry Smethurst, un cittadino inglese, ha utilizzato Meta AI tramite WhatsApp per ottenere il numero di telefono della compagnia ferroviaria TransPennine Express. Smethurst segnalava un ritardo del suo treno e sperava in una risposta rapida dall’assistente digitale integrato nell’app di messaggistica. Invece di ricevere il contatto ufficiale, il chatbot ha fornito un numero di cellulare appartenente a un manager immobiliare, un privato connesso alla sua azienda attraverso informazioni pubblicate online.

Dettagli sull’errore

Quel numero, ben presente sul sito aziendale e attivo su WhatsApp, non aveva nulla a che vedere con la compagnia ferroviaria. L’errore ha portato Smethurst a chiedere spiegazioni, a cui Meta AI ha risposto inizialmente con giustificazioni vaghe, come la generazione casuale basata su schemi numerici britannici. Successivamente ha negato l’associazione tra il numero e una persona reale, ma quando la situazione si è fatta difficile, ha ammesso di aver estratto il dato da un database per errore.

Questa errata attribuzione mette in evidenza i problemi di Meta AI nel trattare dati personali sensibili e nel distinguere tra contatti ufficiali e informazioni privati che possono apparire reali e attendibili. Non è chiaro quale parte della risposta dell’intelligenza artificiale sia corretta ma resta un fatto concreto: è stato divulgato un recapito privato senza consenso, esponendo un problema serio di privacy.

La trasparenza limitata e la diffusione pubblica dei dati su Meta AI app

Il caso di WhatsApp non è isolato. Meta ha lanciato anche un’app separata chiamata Meta AI, disponibile finora solo negli Stati Uniti. Questa app include un feed pubblico nel quale vengono mostrati i prompt degli utenti e le risposte generate dall’intelligenza artificiale. Il feed è accessibile a tutti gli utenti, senza filtri di privacy che escludano la visibilità a sconosciuti.

Esempi di contenuti pubblici sensibili

In questo spazio pubblico, utenti hanno inconsapevolmente condiviso domande estremamente delicate e informazioni private. Esempi vanno da richieste mediche specifiche, come consigli su eruzioni cutanee in punti intimi, fino a confidenze che riguardano problemi legali con nomi e dettagli personali. Qualcuno ha pure fatto richiesta di aiuto in casi drammatici, come una supplica a un giudice di non condannare per un presunto omicidio.

In più, la piattaforma ha mostrato contenuti di vario genere, incluse richieste per generare immagini offensive o surreali, come quella su Mark Zuckerberg in situazioni poco rispettose. Questi esempi configurano una falla nel sistema che espone chi interagisce con Meta AI a una pubblica divulgazione di dati sensibili, senza un chiaro disegno per proteggere la privacy.

La risposta degli esperti di cybersecurity e le modifiche di Meta

Rachel Tobac, CEO della società di cybersecurity Social Proof Security, ha evidenziato a più riprese i limiti di Meta nel proteggere i contenuti pubblicati sull’app Meta AI. Secondo Tobac, gli utenti spesso non comprendono l’effettiva natura pubblica del feed e finiscono per divulgare segreti o contenuti delicati a milioni di persone. È stato messo sotto accusa il design della piattaforma, ritenuto inadatto a tutelare chi la usa.

Come suggerimento, Tobac ha chiesto a Meta di sospendere temporaneamente il prodotto, implementare meccanismi più stringenti per la privacy, e dare agli utenti strumenti chiari per modificare o rimuovere le informazioni accidentalmente rese pubbliche. A distanza di mesi, queste richieste non hanno ancora ricevuto una conferma ufficiale di applicazione.

Novità introdotte da Meta

Tuttavia, recentemente Meta ha introdotto un avviso prima della pubblicazione dei prompt sul feed. Il messaggio informa chiaramente che tutte le domande e risposte saranno pubbliche e visibili a chiunque, sollecitando gli utenti a evitare di condividere dati personali o informazioni sensibili. Questo segnale potrebbe limitare un po’ la diffusione di contenuti privati. Resta però aperto il dibattito sulla necessità e sull’utilità di rendere pubbliche, in modo così diretto, le interazioni con un’intelligenza artificiale.

Considerazioni sulle implicazioni della gestione dati da parte di Meta AI

Questi episodi di errore e trasparenza non voluta indicano che Meta AI, nonostante la sua diffusione, deve ancora affrontare con attenzione il tema della tutela della privacy. La diffusione non autorizzata di numeri telefonici privati o di conversazioni estreme nel feed pubblico dimostra come il controllo sui dati personali resta fragile, soprattutto in ambienti dove l’intelligenza artificiale elabora risposte basate su database e modelli complessi.

L’esperienza insegna che, specie nei servizi integrati in app ampiamente usate come WhatsApp, la responsabilità di proteggere gli utenti diventa ancora più delicata. I messaggi e le informazioni sensibili devono poter restare riservati, senza rischiare che l’intelligenza artificiale riproduca o renda pubblici dati non autorizzati.

Con il crescere dell’uso di chatbot simili a Meta AI, il controllo sui contenuti dovrà migliorare. Alla base ci vuole chiarezza con gli utenti su cosa è visibile, settaggi di tutela più stringenti e sistemi per evitare errori nei risultati. Il caso di Smethurst e la pubblicazione dei prompt su Meta AI solo negli Stati Uniti sono un monito che la gestione delle informazioni personali non può essere lasciata al caso o a meccanismi automatici insufficienti.

Written by
Giulia Rinaldi

Giulia Rinaldi osserva il mondo con occhio critico e mente curiosa. Blogger fuori dagli schemi, scrive di cronaca, politica, spettacolo, attualità, cultura e salute con uno stile personale e tagliente, mescolando analisi e sensibilità in ogni articolo. Il suo obiettivo? Dare voce a ciò che spesso passa inosservato.

Unita.tv è un sito d’informazione generalista che offre aggiornamenti su cronaca, politica, spettacolo, gossip, sport e altri temi d’attualità, con uno stile dinamico e accessibile.

Info & Comunicati

Per info e comunicati stampa inviare email a: info@unita.tv

Questo blog non è una testata giornalistica, in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 07.03.2001.