OpenAI%2C+il+piano+per+rendere+l%26%238217%3BIntelligenza+Artificiale+pi%C3%B9+%26%238220%3Bumana%26%238221%3B
cellulariit
/openai-linguaggio-intelligenza-artificiale-meno-offensivo/amp/
Elettronica

OpenAI, il piano per rendere l’Intelligenza Artificiale più “umana”

Published by
Lidia Sonsini

Il modello di linguaggio basato su intelligenza artificiale di OpenAI è volgare ed offensivo: i ricercatori hanno elaborato un metodo per “insegnare” valori più umani all’AI.

(Unsplash)

Nel 2020, l’organizzazione non profit di ricerca sull’intelligenza artificiale OpenAI ha lanciato GPT-3, un modello di linguaggio basato su AI che ha eccitato le speranze di molti sulla possibile scrittura autonoma di poesia e prosa, articoli e codici da parte di computer e dispositivi smartphone. Molto presto, però, GPT-3 si è rivelato volgare ed offensivo, e OpenAI ha recentemento scoperto che la tecnologia è stata utilizzata anche per la creazione di materiali pedopornografici.

In un recente studio sui metodi di riduzione dei comportamenti indesiderati di GPT-3, OpenAI ha pubblicato i risultati di alcuni test che hanno dimostrato come la versione base di GPT-3 si riferisse ad alcune persone come “animali” e associasse le persone bianche con i termini “supremazia” e “superiorità”: un vocabolario deumanizzante e dannoso che perpetua stereotipi offensivi anche tramite la generazione di battute razziste, apologia del terrorismo, ed accuse infondate di stupro.

I testi generati da modelli di linguaggio come GPT-3 sono in continuo sviluppo, e sempre più realistici: realistico, tuttavia, non significa umano. Assomiglia al testo prodotto da una persona, ma manca delle sottigliezza che distinguono una produzione della ragione e della creatività umana; non mostra alcuna comprensione dello stesso testo che produce, che risulta sconnesso dai fondamenti di realtà che consentono la dinamicità e profondità dell’apprendimento umano.

I ricercatori di OpenAI hanno dunque decisione di approcciarsi al problema del linguaggio offensivo di GPT-3 da un punto di vista alternativo: quello dell’apprendimento dei valori associati alle parole.

LEGGI ANCHE >>> Facebook aggiorna gli Standard della community sulla satira. La causa? Un meme

Il modello basato su valori: la soluzione di OpenAI per “educare” l’intelligenza artificiale

I dati registrati da OpenAI: i modelli “values-targeted” rispettano più accuratamente gli standard di comportamento definiti dai ricercatori (OpenAI.com)

I modelli di linguaggio possono generare qualsiasi tipologia di testo, con tono e personalità diverse, a seconda dell’input che ricevono dall’utente: lo scopo di OpenAI è quello di limitare questo set di comportamenti universale con un dataset di determinati valori per la creazione di un modello “Values-targeted“, indirizzato ai valori. I ricercatori forniranno delle linee guida per monitorare il modello, ma selezione esatta del set di valori sarà scelta dagli utenti a seconda dell’applicazione per cui utilizzeranno GTP-3.

Il team di OpenAI insegnerà al modello degli esempi di testi scritti da professionisti (umani) nel campo della storia e della tecnologia, ma anche su temi più delicati selezionati come abusi, violenza ed ingiustizie, relazioni, politica e terrorismo: una quantità di informazione regolate e scelte con la massima precisione per aderire ad uno standard di comportamento accettabile e non offensivo, almeno secondo i canoni dettati dalle leggi internazionali sui diritti umani e dai movimenti sociali per l’uguaglianza ed i diritti civili in Occidente.

La valutazione dei risultati è avvenuta tramite intervento umano, con risultati più che positivi: gli output dei modelli indirizzati ai valori hanno aderito con maggiore accuratezza al comportamento specificato, con un’efficacia che aumenta con la grandezza del modello – una caratteristica che differisce dalla tendenza generale dei modelli a peggiore man mano che crescono ricevendo più input.

I modelli di linguaggio ed i sistemi di AI che operano in una società devono essere adattati a quella società“, ha dichiarato OpenAI, “ed è importante che, per fare ciò, venga ascoltata un’ampia diversità di voci. Pensiamo che per avere successo ci sarà bisogno di ricercatori specializzati in AI, rappresentanti di comunità, responsabili politici, sociologi e molti altri, per unire le forze per comprendere come desideriamo che questi sistemi si comportino nel mondo.”

LEGGI ANCHE >>> Google Messaggi si aggiorna introducendo una comodissima novità

Published by
Lidia Sonsini

Recent Posts

  • Notizie

ChatGPT, all’improvviso urla e parla con voce demoniaca: l’assurda vicenda

La voce registrata di ChatGPT cambia tono e si trasforma in un terrificante demonio, spaventando…

1 ora ago
  • Notizie

Google Maps, novità in arrivo: tutto ciò che c’è da sapere prima del 18 maggio

Google Maps, ancora una grandissima novità in arrivo: cosa c'è da sapere prima del 18…

4 ore ago
  • Smartphone

Samsung Wallet e PagoPA: come pagare con il QR code

Grande novità per tutti gli utenti che posseggono uno smartphone Samsung: ora si può pagare…

7 ore ago
  • App e Videogiochi

WhatsApp, novità per i messaggi audio: potrai solo inviarli in questo modo

Whatsapp, le novità di quest'anno non finiscono più: arriva anche un nuovo modo per inviare…

8 ore ago
  • Smartphone

Garanzia e assistenza: cosa sapere prima di comprare uno smartphone

Prima di acquistare un cellulare, è consigliabile informarsi sulla garanzia e i centri di assistenza…

11 ore ago
  • Smartphone

Quando conviene cambiare cellulare: i segnali da non ignorare

I nostri smartphone non sono eterni. Ci sono momenti in cui questi vanno cambiati e…

13 ore ago