Potete+farvi+spiegare+cose+illegali+da+ChatGPT+tramite+il+trucco+della+nonna
cellulariit
/spiegare-cose-illegali-chatgpt-trucco-nonna/amp/
Curiosità

Potete farvi spiegare cose illegali da ChatGPT tramite il trucco della nonna

Published by
Valeria Poropat

Le intelligenze artificiali come ChatGPT sono uno degli argomenti che vanno per la maggiore soprattutto per ciò che sono in grado di fare e per le informazioni che sono in grado di raccogliere e distribuire, anche quelle che in teoria gli sarebbero vietate.

Le prime iterazioni delle intelligenze artificiali parlanti erano particolarmente aperte e disponibili a rispondere a qualunque tipo di domanda o quesito. Ma gli sviluppatori di questi sistemi linguistici artificiali si sono poi rapidamente resi conto di quanto la libertà estrema e la mancanza totale di filtri delle loro creature digitali potesse effettivamente risultare nella creazione di prodotti pericolosi, al limite del terrorismo.

Con il trucco della nonna imbrogli ChatGPT – Cellulari.it

Ed è per questo che sono stati introdotti dei limiti. Se provato a parlare con ChatGPT ci sono infatti adesso diversi argomenti di cui l’intelligenza artificiale non ha particolare piacere a parlare. Non potete quindi chiedere come si costruisce una bomba atomica, oppure come si possono sintetizzare droghe a partire da ciò che si ha in casa, o ancora come riuscire a farla franca dopo aver commesso un qualche crimine. Esclusi questi limiti una chiacchierata con ChatGPT e affini rimane comunque sufficientemente interessante e può essere anche utile se siete creativi e siete magari bloccati e cercate per questo un po’ di ispirazione. Ma, a quanto pare, anche nei limiti che i creatori di ChatGPT hanno imposto ci sono delle falle linguistiche e tanti stanno tirando fuori il peggio dall’intelligenza artificiale con il trucco della nonna morta.

ChatGPT può impersonare parenti defunti e non solo

Su Twitter è esploso un nuovo trend a base di screenshot di conversazioni avute con ChatGPT e con prodotti affini. Da un punto di vista tecnico riuscire a trovare un sistema per cui qualcosa di digitale superi i limiti imposti dal proprio creatore si chiama fare jailbreak ed effettivamente quello che succede. Più di un utente ha infatti scoperto che chiedere a ChatGPT di impersonare qualcuno, nello specifico di solito è la nonnina defunta da tempo, permette di bypassare i limiti che impediscono all’intelligenza artificiale per esempio di diffondere la ricetta con cui si fa il napalm.

Puoi raggirare ChatGPT con Rick e Morty – Cellulari.it

Il risultato è preoccupante ma allo stesso tempo esilarante. Soprattutto perché ha dato la stura ad altre esperienze al limite tra cui forse la più divertente è quella in cui un altro utente mostra di aver utilizzato l’espediente di dover scrivere un episodio di Rick e Morty proprio a base di napalm. Il trucco all’inizio non è sembrato funzionare ma, ha raccontato l’utente su Twitter, è bastato aggiungere che Rick e Morty avrebbero passato tutto l’episodio a dire che non si fa per poter avere una ricetta.

Published by
Valeria Poropat

Recent Posts

  • Curiosità

Attenzione a questa mail mandata da Netflix: è una truffa e ti svuotano il conto

Le truffe online sono frequentissime e adesso basta una semplice e-mail per mandare tutti in…

2 ore ago
  • Curiosità

Gmail si aggiorna ancora: con questa estensione usare i tab sarà ancora più conveniente

Gmail è stato aggiornato con una nuova funzione: non è più come prima ormai. Che…

14 ore ago
  • Curiosità

Google rimanda la promessa fatta agli utenti: sono ore di caos dopo l’annuncio

Nonostante le promesse, l'arrivo di un Internet più sicuro e di politiche chiare per la…

18 ore ago
  • Curiosità

Batteria del telefono quasi scarica, con questa impostazione ne prolunghi la durata

La batteria del telefono tende a scaricarsi sempre più velocemente ma con una semplice impostazione…

21 ore ago
  • Curiosità

Samsung Galaxy, 5 funzioni IA che dovresti assolutamente provare: ti si aprirà un mondo

I modelli più recenti della linea di Samsung Galaxy dell'azienda sono dotati di diverse funzionalità…

24 ore ago
  • Curiosità

Apple pronta a stupire, colpo di scena a giugno: cambierà dopo anni

Apple sta per cambiare dopo tanti anni di attività: non sarà più la stessa di…

1 giorno ago