ChatGPT è diventato un assistente personale e anche un confessore per tantissimi utenti, ma attenzione a quello che gli domandi perché la truffa anche qui è dietro l’angolo.
Sempre di più l’intelligenza artificiale sta entrando nella nostra vita, ma c’è qualcosa a cui forse non abbiamo pensato: la possibilità che anche le IA come ChatGPT o Gemini possano non solo mentirci, ma addirittura metterci in pericolo. Eppure, le allucinazioni sono ancora qualcosa con cui occorre fare i conti.
Secondo uno studio mirato, proprio alcuni tipi di allucinazioni rischiano di trasformarsi in veri e propri boomerang, mettendo in pericolo anche i dati personali più delicati dei fiduciosi utenti umani che, commettendo un errore di fondo, danno per scontato che ciò che viene indicato dall’intelligenza artificiale sia effettivamente una risposta corretta. Ecco quello che può succederti.
Adesso la truffa arriva anche da ChatGPT!
Siamo abituati a immaginare che i truffatori si muovano nell’ombra e che poi, senza avvisare, comincino a prendere di mira le loro vittime con messaggi che arrivano via WhatsApp, posta elettronica o attraverso i social media. Questi sono i canali con cui di solito i criminali informatici tentano di entrare in contatto con le loro potenziali vittime. Altre tipologie di truffa sono poi quelle che invece aspettano che gli utenti ignari e un po’ distratti cadano in trappole, in attesa di scattare.

Ma uno studio condotto dai ricercatori sulla sicurezza del gruppo Netcraft ha scoperto che potrebbe esserci un altro tipo di truffa, e che questo tipo di truffa potrebbe diventare potenzialmente letale per i dati personali di tanti utenti.
Gli esperti hanno infatti immaginato che, con domande specifiche all’intelligenza artificiale che continua ad allucinare nonostante ci vengano annunciati aggiornamenti e migliorie, ci possano essere offerti link a siti web che nella pratica non esistono mentre siamo magari in cerca di un servizio specifico.
Se l’allucinazione diventa ripetuta (e succede più spesso di quello che non si pensa) e nessuno la segnala, ChatGPT si convince che quel sito che non esiste possa essere invece una fonte attendibile. Qui entrano in scena i criminali informatici che potrebbero semplicemente creare effettivamente il sito inesistente e qui organizzare le loro attività illegali fingendo di essere esattamente il sito che ChatGPT aveva immaginato.
Un nuovo tipo di raggiro, quindi, che ci dimostra di nuovo come il dare eccessiva fiducia a quello che in realtà non è altro che una slot machine che per pura legge probabilistica ci restituisce qualcosa che assomiglia a un testo sensato, sia il pericolo più grande nel momento storico che viviamo. Anche quando ci dicono che le IA diventeranno geni.
Un motivo in più per invece applicare un po’ di sano scetticismo e soprattutto resistere alla pigrizia e tornare a fare ricerche online nella maniera tradizionale.