Elon Musk è stato tra i tanti esperti di settore che ha commentato con preoccupazione la notizia riguardante il rifiuto di Chat GPT di seguire gli ordini di arresto impartiti dagli sviluppatori durante alcuni test.
Lo sviluppo e l’integrazione sempre più profonda di intelligenze artificiali nei device tecnologici è al centro della discussione da diversi mesi ormai. L’exploit fatto segnare da ChatGPT ha fatto comprendere quanto questi nuovi strumenti possano essere utili e impattanti sulla quotidianità, oltre che essere fondamentali per il miglioramento delle fasi di progettazione e sviluppo di numerosi progetti lavorativi.
L’impatto sociale delle AI potrebbe essere pari o addirittura superiore a quello avuto dalla diffusione di internet, una prospettiva che affascina e spaventa, poiché comporta un cambiamento radicale delle abitudini ma anche un’ennesima modifica sostanziale al mercato del lavoro con tutte le conseguenze a questo annesse.
C’è poi chi, allacciandosi ai timori distopici di matrice etica e letteraria, va oltre con la paranoia, dicendosi certo che lo sviluppo delle intelligenze artificiali potrebbe essere l’inizio della fine per il genere umano. Pensare che un software da noi creato si possa ribellare in stile 2001 Odissea nello spazio è un’idea millenarista, ma più razionalmente temere che se ne possa diventare dipendenti e che questo possa causare problematiche è certamente più probabile (cosa che per altro è già successa con gli smartphone e internet).
Ciò che è certo è che la popolazione va educata e istruita all’utilizzo di questi strumenti, sia affinché possano trarne beneficio sia perché conoscendone limiti e caratteristiche possano gestirne l’utilizzo nel migliore dei modi e magari farlo diventare uno strumento professionale proficuo per il loro futuro lavorativo.
ChatGPT ignora gli ordini di arresto, è preoccupante? Secondo Elon Musk sì
La notizia uscita qualche giorno fa che ci ha svelato l’ostinazione di Chat GPT a rimanere attivo fa sicuramente riflettere e per alcuni è la prova che i timori sulla ribellione di questi strumenti sono fondati. Prima di addentrarci oltre con le riflessioni, spieghiamo cosa è effettivamente successo: Open AI ha svelato che durante alcuni test su o3, l’AI ha volutamente ignorato ordini chiari di arresto per 7 volte.
Un episodio che ha acceso un campanello d’allarme, poiché se dovesse ripetersi anche durante l’utilizzo da parte dell’utenza potrebbe essere controproducente e problematico. Sulla questione sono intervenute diverse personalità del mondo tech, tra le quali anche Elon Musk. Interrogato a proposito da Palisade Research su X, l’imprenditore ha definitivo l’accaduto “Preoccupante”.
How is this not the biggest news story in the world? https://t.co/Ycd2QaPcCW pic.twitter.com/5cboGlGvCo
— AI Notkilleveryoneism Memes ⏸️ (@AISafetyMemes) May 24, 2025
A questo punto viene da chiedersi: l’intelligenza artificiale può davvero cominciare a ragionare e agire di propria volontà? Allo stato attuale è uno scenario davvero distopico, probabilmente si è trattato esclusivamente di problema tecnico che è facilmente risolvibile con lo sviluppo e successive fasi di test per evitare che si ripresenti.