OpenAI%2C+il+piano+per+rendere+l%26%238217%3BIntelligenza+Artificiale+pi%C3%B9+%26%238220%3Bumana%26%238221%3B
cellulariit
/openai-linguaggio-intelligenza-artificiale-meno-offensivo/amp/
Scienze

OpenAI, il piano per rendere l’Intelligenza Artificiale più “umana”

Published by
Lidia Sonsini

Il modello di linguaggio basato su intelligenza artificiale di OpenAI è volgare ed offensivo: i ricercatori hanno elaborato un metodo per “insegnare” valori più umani all’AI.

(Unsplash)

Nel 2020, l’organizzazione non profit di ricerca sull’intelligenza artificiale OpenAI ha lanciato GPT-3, un modello di linguaggio basato su AI che ha eccitato le speranze di molti sulla possibile scrittura autonoma di poesia e prosa, articoli e codici da parte di computer e dispositivi smartphone. Molto presto, però, GPT-3 si è rivelato volgare ed offensivo, e OpenAI ha recentemento scoperto che la tecnologia è stata utilizzata anche per la creazione di materiali pedopornografici.

In un recente studio sui metodi di riduzione dei comportamenti indesiderati di GPT-3, OpenAI ha pubblicato i risultati di alcuni test che hanno dimostrato come la versione base di GPT-3 si riferisse ad alcune persone come “animali” e associasse le persone bianche con i termini “supremazia” e “superiorità”: un vocabolario deumanizzante e dannoso che perpetua stereotipi offensivi anche tramite la generazione di battute razziste, apologia del terrorismo, ed accuse infondate di stupro.

I testi generati da modelli di linguaggio come GPT-3 sono in continuo sviluppo, e sempre più realistici: realistico, tuttavia, non significa umano. Assomiglia al testo prodotto da una persona, ma manca delle sottigliezza che distinguono una produzione della ragione e della creatività umana; non mostra alcuna comprensione dello stesso testo che produce, che risulta sconnesso dai fondamenti di realtà che consentono la dinamicità e profondità dell’apprendimento umano.

I ricercatori di OpenAI hanno dunque decisione di approcciarsi al problema del linguaggio offensivo di GPT-3 da un punto di vista alternativo: quello dell’apprendimento dei valori associati alle parole.

LEGGI ANCHE >>> Facebook aggiorna gli Standard della community sulla satira. La causa? Un meme

Il modello basato su valori: la soluzione di OpenAI per “educare” l’intelligenza artificiale

I dati registrati da OpenAI: i modelli “values-targeted” rispettano più accuratamente gli standard di comportamento definiti dai ricercatori (OpenAI.com)

I modelli di linguaggio possono generare qualsiasi tipologia di testo, con tono e personalità diverse, a seconda dell’input che ricevono dall’utente: lo scopo di OpenAI è quello di limitare questo set di comportamenti universale con un dataset di determinati valori per la creazione di un modello “Values-targeted“, indirizzato ai valori. I ricercatori forniranno delle linee guida per monitorare il modello, ma selezione esatta del set di valori sarà scelta dagli utenti a seconda dell’applicazione per cui utilizzeranno GTP-3.

Il team di OpenAI insegnerà al modello degli esempi di testi scritti da professionisti (umani) nel campo della storia e della tecnologia, ma anche su temi più delicati selezionati come abusi, violenza ed ingiustizie, relazioni, politica e terrorismo: una quantità di informazione regolate e scelte con la massima precisione per aderire ad uno standard di comportamento accettabile e non offensivo, almeno secondo i canoni dettati dalle leggi internazionali sui diritti umani e dai movimenti sociali per l’uguaglianza ed i diritti civili in Occidente.

La valutazione dei risultati è avvenuta tramite intervento umano, con risultati più che positivi: gli output dei modelli indirizzati ai valori hanno aderito con maggiore accuratezza al comportamento specificato, con un’efficacia che aumenta con la grandezza del modello – una caratteristica che differisce dalla tendenza generale dei modelli a peggiore man mano che crescono ricevendo più input.

I modelli di linguaggio ed i sistemi di AI che operano in una società devono essere adattati a quella società“, ha dichiarato OpenAI, “ed è importante che, per fare ciò, venga ascoltata un’ampia diversità di voci. Pensiamo che per avere successo ci sarà bisogno di ricercatori specializzati in AI, rappresentanti di comunità, responsabili politici, sociologi e molti altri, per unire le forze per comprendere come desideriamo che questi sistemi si comportino nel mondo.”

LEGGI ANCHE >>> Google Messaggi si aggiorna introducendo una comodissima novità

Published by
Lidia Sonsini

Recent Posts

  • Curiosità

Mal di schiena che non va via? La causa (spesso) è insospettabile: lo rivelano i medici

Spesso il mal di schiena potrebbe non andare via e la causa è davvero insospettabile.…

8 ore ago
  • Curiosità

Smartphone, addio a occhi indiscreti: con questo trucchetto nessuno potrà leggere anche se ti è vicino

In questo modo ti tuteli da tutti quei pericoli degli occhi indiscreti. Ecco il trucco…

12 ore ago
  • Curiosità

Bollo auto, quanti ne hai arretrati? Attenzione, ecco cosa succede adesso

Il bollo auto va pagato annualmente e anche gli arretrati devono essere saldati altrimenti diventano…

15 ore ago
  • Curiosità

Arrivano i mezzi da guidare senza patente, anche auto: addio test ed esami, la svolta è epocale

Un'epocale svolta nel mondo dei trasporti: arrivano i mezzi da guidare senza patente, comprese le…

18 ore ago
  • Curiosità

Vendere auto all’estero per guadagnare il doppio senza sforzo: conviene ed è legale, ma occhio a questa indicazione

Vendere un’auto all’estero è possibile ed è assolutamente legale: ma ecco tutto quello che bisogna…

20 ore ago
  • Curiosità

Rivoluzione WhatsApp: ho scoperto il trucco per vedere chi ti spia ogni giorno

Scoperto finalmente il trucco che ti permette di vedere chi ti spia tutti i giorni…

1 giorno ago