I numeri di Facebook sulla rimozione di post incitanti a odio e violenza non convincono

L’ottobre nero di Mark Zuckerberg non sembra ancora finito. Sono passate un paio di settimane dagli attacchi dell’ex dipendente Frances Haugen e il triplo down che ha oscurato per ore e ore, all’unisono, Facebook, Instagram e Whatapp. E si torna a parlare (male) della piattaforma statunitense fondata nel 2004 da Mark Zuckerberg, Eduardo Saverin, Andrew McCollum, Dustin Moskovitz e Chris Hughes.

Facebook (Adobe Stock)
Facebook (Adobe Stock)

Facebook continua ad affermare di utilizzare l’intelligenza artificiale per identificare e rimuovere i post contenenti incitamento all’odio e violenza. Ma, a quanto pare, o non è vero, oppure la tecnologia utilizzata non funziona come dovrebbe.

Secondo un’inchiesta del Wall Street Journal, infatti, gli ingegneri senior di Facebook affermano che il sistema automatizzato dell’azienda ha rimosso solo i post che hanno generato appena il 2% dei post contenenti l’incitamento all’odio e alla violenza.

Facebook chiude troppe volte un occhio? Il botta e risposta

Facebook down (Adobe Stock)
Facebook down (Adobe Stock)

Un altro gruppo di dipendenti di Facebook è giunto a una conclusione simile, sostenendo che l’Intelligenza Artificiale di Facebook ha rimosso solo i post che generavano dal 3% al 5% di incitamento all’odio e alla violenza sul noto social americano, appena lo 0,6% di contenuti che violavano le regole di Facebook. Troppo poco.

LEGGI ANCHE >>> Volantino Unieuro, con il “SottoPrezzo” ci sono sconti da far impazzire

Il rapporto del Journal è stata solo la punta di un iceberg, di un’inchiesta ad ampio raggio, denominata “File di Facebook”. Che avrebbe ha scoperto che il colosso Hig Tech di Mark Zuckerberg chiuderebbe troppe volte un occhio su quanto accade sul noto social: dalla salute mentale delle ragazze che usano Instagram alla disinformazione, passando per troppe fake news, al traffico di esseri umani e alla violenza in generale.

LEGGI ANCHE >>>  L’iPhone 13 con iOS 15 regala l’ambizioso premio a un notissimo contest

Facebook nega tutto, naturalmente, definendo l’inchiesta del Wall Street Jornal “piena di imprecisioni”. Il CEO di Facebook, Mark Zuckerberg, continua a ripetere che l’Intelligenza Artificiale di cui dispone di Facebook sarebbe in grado di eliminare “la stragrande maggioranza dei contenuti problematici” prima del 2020, e che i contenuti violenti vengono eliminati dalla sua Intelligenza Artificiale “super efficiente“, prima ancora che gli utenti lo vedano. I numeri di Facebook sono molto diversi da quelli del Journal, a tal punto che un report di Facebook dello scorso febbraio asserisce che questo tasso di rilevamento era superiore al 97%.

I numeri annunciati da Mark Zuckerberg non convincono tutti: alcuni gruppi, tra cui organizzazioni per i diritti civili e accademici, restano scettiche sulle statistiche di Facebook in quanto i numeri della piattaforma social non corrispondono a studi esterni. Sempre secondo il Journal. “Non mostreranno mai il loro lavoro“, ha detto al quotidiano internazionale di New York Rashad Robinson, presidente del gruppo per i diritti civili Color of Change. “Chiediamo, qual è il numeratore? Qual è il denominatore? Come sono stati ottenuti questi numeri?

Il capo dell’integrità di Facebook, Guy Rosen, ha risposto, comunque, al Journal: sebbene i documenti esaminati non fossero aggiornati, l’Intelligenza Artificiale avrebbe influenzato le decisioni di Facebook sulla moderazione dei contenuti. Rosen ha affermato che è più importante osservare come l’incitamento all’odio si sta riducendo su Facebook in generale, piuttosto che criticare i numeri. Parole, parole, parole: tante parole, quanti sono gli scettici.