Una ricerca pubblicata dal Financial Times ha rivelato che Apple avrebbe intenzione di effettuare verifiche a tappeto sulle immagini archiviate su iPhone e iCloud alla ricerca di immagini che potrebbero rivelare abusi sui minori.
Una decisione che ha sollevato però la questione della protezione dei dati degli utenti, che potrebbe portare Apple a incappare in maggiori richieste legali e governative.
Il sistema, chiamato neuralMatch, ÂŤavviserĂ in modo proattivo un team di revisori umani se ritiene che vengano rilevate immagini illegali, che poi contatteranno le forze dellâordine se il materiale può essere verificatoÂť, si legge sulle colonne del Financial Times. neuralMatch, che è stato âaddestratoâ utilizzando 200.000 immagini dal National Center for Missing & Exploited Children, verrĂ lanciato per la prima volta negli Stati Uniti. Le foto verranno sottoposte a hash e confrontate con un database di immagini note di abusi sessuali su minori.
LEGGI ANCHE >>>Â 10.000 dollari al mese con il fondo YouTube Shorts: il piano per competere con TikTok
ÂŤSecondo le persone informate sul progetto, ogni foto caricata su iCloud negli Stati Uniti riceverĂ un cosiddetti buono di sicurezza che indica se sia sospetta o meno â si legge ancora sul Financial Times â Una volta che un certo numero di foto sarĂ contrassegnato come sospetto, Apple consentirĂ a tutte le foto sospette di essere decifrate e, se apparentemente illegali, trasmesse alle autoritĂ competentiÂť.
LEGGI ANCHE >>>Â iOS 15 accontenta gli amanti delle foto: grossa novitĂ in arrivo
Ma il professore e crittografo della John Hopkins University Matthew Green ha sollevato, con un Tweet, preoccupazioni sul sistema. ÂŤQuesto tipo di strumento può essere un vantaggio per trovare materiale pedopornografico nei telefoni delle persone â ha detto Green â Ma immaginiamo cosa potrebbe farne un governo autarchico se finisse nelle mani sbagliate?Âť.
âAnche se possiamo essere certi che Apple non permetterĂ che questi strumenti vengano utilizzati in modo improprio, câè ancora molto di cui preoccuparsiâ, ha continuato. âQuesti sistemi si basano su un database di âhash multimediali problematiciâ che il consumatore, non può rivedere.â
Apple controlla giĂ i file iCloud rispetto alle immagini di abusi sui minori note, come ogni altro importante provider di servizi cloud. Ma il sistema qui descritto andrebbe oltre, consentendo lâaccesso centrale allâarchiviazione locale.
Apple ha precedentemente pubblicizzato le protezioni della privacy integrate nei suoi dispositivi e notoriamente si è opposto allâFBI quando lâagenzia voleva che Apple costruisse una backdoor in iOS per accedere a un iPhone utilizzato da uno degli assassini nellâattacco del 2015 a San Bernardino.
Con un piccolo trucco il tuo iPhone diventa anche un comodo telecomando universale per la…
Alcuni lavoratori rischiano il pignoramento dello stipendio: ecco a chi si applica questa nuova misura. …
Ancora novitĂ inaspettate dal mondo Apple, iOS 26 cambia le regole: CarPlay adesso fa cose…
Da settembre ci sarĂ un nuovo bonus in busta paga: ecco gli importi e chi…
Fanno compagnia a chi non è andato in vacanza e colmano il grande vuoto dei…
Tutto sulla nuova sanatoria per le Partite Iva: ecco chi può aderire e come farlo. …