Privacy a rischio: l’incubo delle conversazioni con Meta AI diventate pubbliche

Domande intime su salute, orientamento sessuale o persino strategie per evadere il fisco: sono solo alcune delle conversazioni private con Meta AI, l’intelligenza artificiale di Meta, che finiscono esposte sul feed pubblico “Discover” di Facebook, Instagram e del sito dedicato. Un problema che non sembra derivare da un errore tecnico, ma da una scelta di design controversa, sollevando gravi preoccupazioni sulla privacy degli utenti e sulla trasparenza delle piattaforme social.

Chat private o contenuti social?

Meta AI, lanciata ad aprile 2025, consente agli utenti di interagire con un assistente virtuale attraverso le piattaforme del gruppo, tra cui Facebook, Instagram e WhatsApp. Sebbene l’azienda affermi che le chat siano private per impostazione predefinita, con l’opzione di renderle pubbliche, molti utenti sembrano inconsapevoli che le loro conversazioni possano finire visibili a tutti. Il feed “Discover” dell’app, infatti, pubblica interazioni su temi sensibili come identità di genere, fantasie sessuali o dati sanitari, spesso riconducibili ai profili pubblici degli utenti su Instagram.

“L’interfaccia non comunica chiaramente quali siano le impostazioni di visibilità delle conversazioni,” spiega Rachel Tobac, amministratrice delegata di Social Proof Security, in un’intervista alla BBC. “Le persone non si aspettano che le loro interazioni con un chatbot vengano esposte pubblicamente, collegandole alla loro identità reale.” Tobac ha individuato casi di utenti che hanno condiviso indirizzi di casa, dettagli di procedimenti giudiziari o persino lettere di referenze con nomi e cognomi reali.

Un avviso insufficiente

Prima di iniziare una chat, Meta AI mostra un messaggio che invita a non condividere informazioni sensibili. Tuttavia, esperti come Calli Schroeder, consulente senior dell’Electronic Privacy Information Center, sottolineano che questo avviso è inadeguato. “Ho visto persone condividere informazioni mediche, dettagli sulla salute mentale o persino dati legati a casi giudiziari,” ha dichiarato Schroeder a Wired USA. “Questo indica un fraintendimento su cosa facciano questi chatbot e su come funzioni la privacy”.

Il problema sembra radicato nella progettazione dell’app: se un utente accede con un account Instagram pubblico, le interazioni con Meta AI diventano automaticamente pubbliche, senza avvisi chiari che lo segnalino. Una scelta che ricorda errori del passato, come il caso AOL del 2006, quando la pubblicazione di ricerche pseudo-anonime degli utenti scatenò un’ondata di critiche.

Meta AI: ambizioni e critiche

Nonostante le criticità, Meta punta forte sull’intelligenza artificiale. Il CEO Mark Zuckerberg ha annunciato che l’assistente AI ha raggiunto un miliardo di utenti attivi sulle piattaforme del gruppo, un traguardo che sottolinea l’ambizione di competere nel mercato dell’IA. Parallelamente, Zuckerberg sta selezionando un nuovo team per sviluppare una “superintelligenza”, con colloqui privati nelle sue residenze a Lake Tahoe e Palo Alto.

Tuttavia, l’app dedicata di Meta AI stenta a decollare. Secondo Appfigures, dal lancio ha registrato solo 6,5 milioni di download, un risultato modesto per un prodotto su cui Meta ha investito miliardi. A pesare, oltre alle questioni di privacy, è anche l’emergere di contenuti di trolling che sfruttano le debolezze della piattaforma.

Lezioni non apprese

L’episodio solleva interrogativi sul rapporto tra intelligenza artificiale, privacy e consapevolezza degli utenti. “Nessuno sa davvero come vengono usate queste informazioni,” avverte Schroeder. “L’unica certezza è che non rimangono private tra l’utente e l’app, ma vengono condivise, almeno con Meta”.

La trasformazione di conversazioni private in contenuti social pubblici sembra ignorare lezioni fondamentali della storia di internet. Mentre Meta continua a investire nell’IA, resta da vedere se riuscirà a riconquistare la fiducia degli utenti, affrontando le criticità emerse e garantendo una gestione più trasparente dei dati. Nel frattempo, gli esperti consigliano cautela: evitare di condividere informazioni sensibili con chatbot potrebbe essere l’unica difesa contro un sistema che, per ora, sembra privilegiare l’engagement rispetto alla privacy.