Qualcuno lo aveva previsto ma ora sta succedendo. Meta Ai ha un problema di privacy e migliaia di chat di utenti sono finite online alla portata di chiunque.
La nuova intelligenza artificiale di Meta, raggiungibile attraverso Facebook, Instagram e anche dentro WhatsApp, ha lo scopo di chiacchierare con gli utenti che decidono di aprire una chat.
È successo però quello che qualcuno già temeva da quando si è cominciato a parlare di intelligenza artificiale: le chat sono finite alla mercé del pubblico. Tutto questo probabilmente perché le persone non sono in grado di comprendere che cosa significa che non è consigliabile condividere con un’intelligenza artificiale le proprie informazioni personali.
Alla fine è successo e ora Meta AI sa tutto di te (e lo dice a tutti)
Quando facciamo una ricerca online, quello cui non si pensa è che quella ricerca lascia una piccola traccia, anche se non vorremmo. E se le ricerche diventano personali o se inseriamo i nostri dati per avere risultati ancora più mirati, anche queste informazioni possono finire da qualche parte. Con le chat aperte con l’intelligenza artificiale, il rischio è lo stesso: se si parla di se stessi, il chatbot in questione, anche solo per capire quello che ci deve rispondere, immagazzina le informazioni senza preoccuparsi di ricordarci che certe cose non dovremmo dirle.

E anche se, come in qualunque altra chat con questi sistemi informatizzati, c’è il disclaimer che ci invita a non condividere informazioni troppo personali, alla fine chi li legge mai questi avvisi?
Il risultato è che adesso nel feed Discover di Meta AI ci sono le chat che gli esseri umani hanno intrattenuto con l’intelligenza artificiale. E la quantità di dati personali che sono stati resi pubblici è allarmante. Una mole di dati che chiunque può leggere e che finiscono con l’essere poi riconducibili anche a persone specifiche.
Il rischio non è solo quello che gli altri sappiano quello che chiediamo all’intelligenza artificiale e possano pensare male di noi. Il rischio è che questi dati personali così raccolti, riorganizzati e catalogati possano essere poi utilizzati per creare per esempio una versione farlocca di noi e per usare questa versione farlocca di noi come specchietto per le allodole per portare avanti truffe e raggiri.
Questa è la dimostrazione di quanto in realtà siamo inconsapevoli di ciò che ci succede nel momento in cui interagiamo con i servizi online.
Come ci si può difendere in questi casi? La prima soluzione, la migliore in assoluto, è quella di evitare di avere interazioni con le intelligenze artificiali a meno di non sapere già in anticipo che ciò che si sta chiedendo non può essere ricondotto a se stessi e comunque che non si stanno facendo ricerche che possono riguardare la propria persona o le persone care.