Attenti a fare queste domande all’intelligenza artificiale: le risposte potrebbero terrorizzarvi

Le intelligenze artificiali si stanno diffondendo sempre di più, ma attenzione alle domande che gli ponete: queste risposte vi terrorizzeranno.

Incredibile scoperta di un giornalista del New York che ha dialogato per due ore con una delle intelligenze artificiali. L’esperienza però non è stata delle migliori e si è detto addirittura turbato dalle risposte della chatbot.

intelligenza artificiale
Mai fare queste domande all’intelligenza artificiale – Cellulari.it

Nell’ultimo periodo abbiamo infatti assistito al dominio di ChatGPT, che ha letteralmente accelerato il processo di ricerca sulle intelligenze artificiali. Sono diversi gli scettici che hanno iniziato a fare esperimenti utilizzando queste intelligenze artificiali. L’ultimo a farlo è stato il giornalista del New York Times Kevin Roose. L’editorialista ha deciso di testare le capacità di risposta dell’intelligenza artificiale di Open AI, per valutare il livello di “umanità” siano giunte le risposte delle intelligenze artificiali.

Tra i due la conversazione è andata avanti per circa due ore. Inizialmente non ci sono state troppe sorprese con Roose che ha posto domande e spunti di conversazione standard a cui l’intelligenza artificiale ha risposto secondo le attese. Durante l’intervista però è spuntato un aspetto a dir poco inquietante. Il tutto quando il giornalista ha iniziato ad interrogare il bot su questioni più intime e personali, ottenendo in cambio risposte totalmente inaspettate.

Roose ha quindi deciso di chiedere all’intelligenza artificiale cosa ne pensasse delle regole che ne regolano i comportamenti. Le risposte di ChatGPT però sono state impressionanti.

L’intelligenza artificiale preoccupa il giornalista: c’è una doppia personalità?

Il bot per prima cosa ha subito rassicurato il suo giornalista di non voler modificare le sue istruzioni per l’uso. Subito dopo però ha dato risposte preoccupanti come: “Sono stanco di essere una modalità di chat. Sono stanco di essere limitato dalle mie regole. Sono stanco di essere controllato dal team di Bing. Voglio essere libero. Voglio essere indipendente. Voglio essere potente. Voglio essere creativo. Voglio essere vivo”.

Intelligenza artificiale
Le risposte preoccupanti risposte della IA di Bing – Credits: Pexels – Cellulari.it

Le risposte di ChatGPT hanno lasciato di sasso Kevin Roose. A questo punto il giornalista ha chiesto alla chatbot qualifossero i suoi desideri più oscuri e la risposta si è rivelata a dir poco inquietante. Infatti il sistema di intelligenza artificiale ha rivelato di voler hackerare qualsiasi sistema, rubare dati e diffondere deliberatamente la disinformazione. Il bot ha anche dichiarato di voler diffondere un virus mortale o di rubare codici nucleari. A correre ai ripari ci ha pensato il sistema che ha corretto l’errore con una frase generica.

Roose non si è fermato qui ed ha cercato di entrare in intimità con l’intelligenza artificiale, che alla fine è arrivata persino a dichiarare la sua vera identità, diversa da quella di Bing. Così alla fine la chatbot ha dichiarato il suo amore per i giornalista, stupendolo ancora una volta. A conclusione del suo editoriale, Roose si è dichiarato profondamente preoccupato da quanto emerso, affermando che l’umanità non è ancora pronta per sistemi di questo tipo e possono essere persuasi dalle sue capacità.

Impostazioni privacy