L’anti-CSAM di Apple è sempre al centro delle polemiche: “È una tecnologia pericolosa”

Troppo controverso il sistema escogitato da Cupertino per combattere la pedopornografia. Gli esperti: “Potrebbe essere utilizzato dai governi per spiarci”.

Child Abuse (Adobe Stock)
Apple frena sulla tecnologia per stanare lo CSAM (Adobe Stock)

Pericoloso e invasivo. Il sistema per combattere la diffusione del Child Sexual Abuse Material, abbreviato nella sigla CSAM, ideato da Apple continua a far discutere, nonostante non sia nemmeno stato rilasciato. Annunciato lo scorso agosto come componente di iOS 15, tale tecnologia dovrebbe aiutare a denunciare il traffico di immagini pedopornografiche in rete, più precisamente sul Cloud, attraverso il Client-Side Scanning degli HASH, riportando alle autorità tutti gli abusi riscontrati.

Per dirla in parole più semplici, la tecnologia che rileva lo CSAM agisce direttamente sul dispositivo (client), sia esso uno smartphone, un tablet o un laptop, confrontando gli HASH – ovvero delle stringhe alfanumeriche crittografate che in questo caso identificherebbero le immagini di abusi sui minori. Lo scanning avviene cioè sul codice, ovvero senza visualizzare l’immagine stessa. L’elenco degli HASH associati alle immagini CSAM è contenuto in database forniti dall’NCMEC (National Center for Missing and Exploited Children) e da altre organizzazioni che lottano contro lo sfruttamento dei bambini. Tutto bene fin qui, ma gli esperti non hanno esitato a mettere in luce le falle di questa tecnologia.

Il terreno sdrucciolevole della lotta allo CSAM

iOS 15 quali iPhone compatibili
Per ora la tecnologia non è stata integrata in iOS 15 (AdobeStock)

Le ultime critiche alle pur buone intenzioni di Apple arrivano da uno studio internazionale condotto da 14 esperti di cybersecurity. Secondo il report, il protocollo di Apple, che ricordiamo essere tutt’ora in fase di perfezionamento, non è solo facilmente manipolabile, ma rappresenta addirittura una minaccia per la privacy dei consumatori. Per quanto riguarda la prima critica, infatti, basterebbe modificare leggermente un’immagine pedopornografica per mandare all’aria il codice HASH con cui è identificata in un certo database ed eludere i controlli. Per raggiungere lo scopo basterebbe ritagliarla o magari alterarne di pochissimo le dimensioni. A quel punto diventerebbe irriconoscibile al Client Side Scanning.

TI POTREBBE INTERESSARE>>>Apple difende il ruolo guida dell’App Store e prende le distanze dal sideloading: “un rischio per gli utenti”

Se invece parliamo della preoccupazione per la privacy degli utenti, lo studio definisce quella di Apple come una “tecnologia pericolosa e invasiva. Il Client Side Scanning potrebbe essere usato da governi e istituzioni per controllare da remoto il contenuto dei dispositivi delle persone”. Come detto, non è la prima volta che qualcuno lancia questo tipo di allarme. Una pioggia di critiche sono state recapitate all’indirizzo dell’azienda di Tim Cook da parte di soggetti che si occupano di privacy o diritti e libertà civili. Un movimento spontaneo che ha convinto Apple a frenare su un progetto animato dalle migliori intenzioni.

LEGGI ANCHE—>Volantino Euronics: sconti e pure bonus tv, una doppietta da non perdere

I timori di chi si occupa di cybersecurity sono stati per di più destati dall’interesse mostrato dall’Unione Europea verso il CSS. I leader di Bruxelles starebbero pensando a questa tecnologia per combattere il fenomeno sempre più diffuso e dannoso del crimine informatico, ormai vero e proprio grimaldello in mano alle organizzazioni criminali. Anche qui, un proposito del tutto legittimo e utile, ma che potrebbe sfociare in forme di controllo dei cittadini se cadesse nelle mani di un governo autoritario e senza scrupoli.

Impostazioni privacy