OpenAI, il piano per rendere l’Intelligenza Artificiale più “umana”

Il modello di linguaggio basato su intelligenza artificiale di OpenAI è volgare ed offensivo: i ricercatori hanno elaborato un metodo per “insegnare” valori più umani all’AI.

OpenAI
(Unsplash)

Nel 2020, l’organizzazione non profit di ricerca sull’intelligenza artificiale OpenAI ha lanciato GPT-3, un modello di linguaggio basato su AI che ha eccitato le speranze di molti sulla possibile scrittura autonoma di poesia e prosa, articoli e codici da parte di computer e dispositivi smartphone. Molto presto, però, GPT-3 si è rivelato volgare ed offensivo, e OpenAI ha recentemento scoperto che la tecnologia è stata utilizzata anche per la creazione di materiali pedopornografici.

In un recente studio sui metodi di riduzione dei comportamenti indesiderati di GPT-3, OpenAI ha pubblicato i risultati di alcuni test che hanno dimostrato come la versione base di GPT-3 si riferisse ad alcune persone come “animali” e associasse le persone bianche con i termini “supremazia” e “superiorità”: un vocabolario deumanizzante e dannoso che perpetua stereotipi offensivi anche tramite la generazione di battute razziste, apologia del terrorismo, ed accuse infondate di stupro.

I testi generati da modelli di linguaggio come GPT-3 sono in continuo sviluppo, e sempre più realistici: realistico, tuttavia, non significa umano. Assomiglia al testo prodotto da una persona, ma manca delle sottigliezza che distinguono una produzione della ragione e della creatività umana; non mostra alcuna comprensione dello stesso testo che produce, che risulta sconnesso dai fondamenti di realtà che consentono la dinamicità e profondità dell’apprendimento umano.

I ricercatori di OpenAI hanno dunque decisione di approcciarsi al problema del linguaggio offensivo di GPT-3 da un punto di vista alternativo: quello dell’apprendimento dei valori associati alle parole.

LEGGI ANCHE >>> Facebook aggiorna gli Standard della community sulla satira. La causa? Un meme

Il modello basato su valori: la soluzione di OpenAI per “educare” l’intelligenza artificiale

OpenAI Valori
I dati registrati da OpenAI: i modelli “values-targeted” rispettano più accuratamente gli standard di comportamento definiti dai ricercatori (OpenAI.com)

I modelli di linguaggio possono generare qualsiasi tipologia di testo, con tono e personalità diverse, a seconda dell’input che ricevono dall’utente: lo scopo di OpenAI è quello di limitare questo set di comportamenti universale con un dataset di determinati valori per la creazione di un modello “Values-targeted“, indirizzato ai valori. I ricercatori forniranno delle linee guida per monitorare il modello, ma selezione esatta del set di valori sarà scelta dagli utenti a seconda dell’applicazione per cui utilizzeranno GTP-3.

Il team di OpenAI insegnerà al modello degli esempi di testi scritti da professionisti (umani) nel campo della storia e della tecnologia, ma anche su temi più delicati selezionati come abusi, violenza ed ingiustizie, relazioni, politica e terrorismo: una quantità di informazione regolate e scelte con la massima precisione per aderire ad uno standard di comportamento accettabile e non offensivo, almeno secondo i canoni dettati dalle leggi internazionali sui diritti umani e dai movimenti sociali per l’uguaglianza ed i diritti civili in Occidente.

La valutazione dei risultati è avvenuta tramite intervento umano, con risultati più che positivi: gli output dei modelli indirizzati ai valori hanno aderito con maggiore accuratezza al comportamento specificato, con un’efficacia che aumenta con la grandezza del modello – una caratteristica che differisce dalla tendenza generale dei modelli a peggiore man mano che crescono ricevendo più input.

I modelli di linguaggio ed i sistemi di AI che operano in una società devono essere adattati a quella società“, ha dichiarato OpenAI, “ed è importante che, per fare ciò, venga ascoltata un’ampia diversità di voci. Pensiamo che per avere successo ci sarà bisogno di ricercatori specializzati in AI, rappresentanti di comunità, responsabili politici, sociologi e molti altri, per unire le forze per comprendere come desideriamo che questi sistemi si comportino nel mondo.”

LEGGI ANCHE >>> Google Messaggi si aggiorna introducendo una comodissima novità