Apple abbandona il controverso progetto antipedofilia? I riferimenti sul web non ci sono più

Apple abbandona il controverso progetto antipedofilia? I riferimenti sul web non ci sono più

Apple rimuove ogni riferimento alla controversa tecnologia per la rilevazione di materiale CSAM, forse suggerendo uno stop indeterminato al progetto

di pubblicata il , alle 16:31 nel canale Apple
Apple
 

Apple ha silenziosamente eliminato tutti i riferimenti a CSAM (Child Sexual Abuse Material) dalla sua pagina Child Safety, suggerendo che le ipotesi di implementazione di misure per rilevare immagini di abusi sessuali su minori presenti su iPhone e iPad potrebbero essere completamente abbandonate dopo le critiche sollevate da gran parte del mondo tecnologico.

La Mela ad agosto aveva annunciato una serie di nuove funzionalità all'interno di iOS, macOS, watchOS e iMessage per la sicurezza del pubblico dei più piccoli, tra le quali spiccava la possibilità di scansionare le librerie di foto prima del caricamento di un bakcup su iCloud, con lo scopo di ricercare la presenza di contenuti CSAM.

A seguito di quell'annuncio Apple incontrò un vero e proprio uragano di critiche da parte di una nutrita serie di organizzazioni, ricercatori di sicurezza, gruppi di attivisti pro-privacy, politici e anche alcuni dipendenti della società stessa. La Mela ha inizialmente cercato di allontanare evenutali malintesi, approfondendo ulteriormente l'argomento e mettendo a disposizione FAQ e documenti, con l'obiettivo di lenire le preoccupazioni.

Azioni che non hanno avuto l'esito sperato, e che hanno portato Apple a proseguire con l'implementazione di alcune misure, quelle più utili e meno controverse, e a posticipare in maniera indefinita l'implementazione di CSAM. La Mela aveva allora affermato che la decisione di spostare in avanti l'implementazione della tecnologia fu presa sulla base del riscontro avuto da "clienti, gruppo di difesa, ricercatori e altri" in maniera tale da avere più tempo per raccogliere suggerimenti e apportare migliorie prima del rilascio della funzionalità.

Una dichiarazione che fu pubblicata proprio sulla pagina Child Safety di Apple, ma che ora è sparita e con essa tutti i riferimenti a CSAM, suggerendo quindi la possibilità che la Mela abbia deciso di stralciare completamente il progetto.

Nel frattempo, con l'uscita della versione 15.2 di iOS, Apple ha portato avanti l'inserimento delle funzionalità che hanno lo scopo di proteggere i giovani dalla ricezione di immagini sessualmente esplicite in iMessage e del sistema di protezione per Siri e per la ricerca che avvisa l'utente offrendo indicazioni aggiuntive su come ricevere e richiedere supporto o aiuto.

2 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
sbaffo15 Dicembre 2021, 17:15 #1
Vabbè, ci hanno provato. E ci riproveranno sotto altra forma.

Per ora è stata respinta e sbugiardata l'inutile invasione nei nostri terminali (dal momento che di tutto cioò che va nel cloud Apple ha la chiave, a disposizione delle autorità per legge Usa). A parte qualche fulminato che ci era cascato, la maggioranza si è accorta della bugia.
Hiei360015 Dicembre 2021, 22:43 #2
Io vorrei sapere chi è tanto idiota da tenere certo materiale in chiaro e non super-crittografato....

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^