Google: un dipendente dichiara di aver parlato con l’intelligenza artificiale | Come se fosse una persona

A causa di alcune dichiarazioni non autorizzate, un dipendente Google è stato licenziato in tronco e non sembra esserci modo di tornare indietro. Ecco tutti i retroscena della curiosa vicenda

Ormai circa un mese fa, l’ingegnere Blake Lemoine aveva fatto parlare di sé per alcuni problemi con Google. Nello specifico, quest’ultimo aveva rilasciato alcune dichiarazioni poco apprezzate sull’intelligenza artificiale utilizzata da Google. E, più nello specifico, della LaMDA (Language Model for Dialogue Applications), considerata senziente.

Uomo e AI (Adobe Stock)
Uomo e AI (Adobe Stock)

Subito dopo l’intervista, fu Big G stessa a mettere Lemoine in congedo non retribuito. Alla fine, la vicenda si è conclusa qualche giorno fa con il suo licenziamento in tronco. A raccontare il tutto l’ex-dipenente in un podcast. Anche Google ha confermato il tutto al magazine Engadget.

Lemoine licenziato da Google per un’intervista: ecco tutti i dettagli

Blake Lemoine
Blake Lemoine

LaMDA ha superato 11 recensioni distinte e abbiamo pubblicato un documento di ricerca all’inizio di quest’anno descrivendo in dettaglio il lavoro che va verso il suo sviluppo responsabile. Se un dipendente condivide delle preoccupazioni sul nostro lavoro, come ha fatto Blake, le esaminiamo ampiamente. Abbiamo riscontrato che le affermazioni di Blake, secondo cui LaMDA è senziente, sono del tutto infondate e abbiamo lavorato per chiarirlo con lui per molti mesi. Queste discussioni facevano parte della cultura aperta che ci aiuta a innovare in modo responsabile. Quindi, è deplorevole che, nonostante il lungo impegno su questo argomento, Blake abbia comunque scelto di violare in modo persistente chiare politiche sull’occupazione e sulla sicurezza dei dati che includono la necessità di salvaguardare le informazioni sui prodotti. Continueremo il nostro attento sviluppo di modelli linguistici e auguriamo il meglio a Blake” il comunicato stampa di Google, dove viene spiegato per filo e per segno quanto accaduto.

Anche altri specialisti di intelligenza artificiale hanno poi commentato quanto successo, spiegando come – secondo loro – Lemoine sia stato condizionato mentalmente, dimenticandosi che lo scopo di LaMBDA è imitare le conversazioni umane nel migliore e più accurato modo possibile.