Apple e la ricerca delle immagini pedopornografiche: perplessità e dubbi anche tra i dipendenti

Apple e la ricerca delle immagini pedopornografiche: perplessità e dubbi anche tra i dipendenti

La tecnologia ideata da Apple per la ricerca di contenuti di abusi su minori solleva qualche perplessità anche all'interno dell'azienda. Si teme, tra l'altro, che possa ledere la reputazione di Apple come paladina della privacy

di pubblicata il , alle 10:31 nel canale Apple
Apple
 

Il nuovo meccanismo di scansione delle fotografie alla ricerca di materiale pedopornografico e di abusi su minori, che Apple ha presentato la scorsa settimane con la pubblicazione di un documento tecnico, non ha mancato di sollevare dubbi e preoccupazioni: da più parti si chiede, infatti, se il sistema potrebbe essere utilizzato per ricercare anche altri tipi di contenuti e se le forze dell'ordine e le autorità possano in qualche modo costringere Apple ad usarlo per scopi diversi rispetto all'obiettivo originario.

Ora i dubbi serpeggiano anche all'interno dell'azienda: un numero non meglio precisato di dipendenti Apple avrebbe infatti sollevato il caso utilizzando i canali interni Slack dell'azienda, esprimendo in particolar modo proprio il timore che i governi possano obbligare la Mela ad usare la tecnologia per ricercare contenuti diversi rispetto a quanto si sta prefissando il sistema. Secondo le informazioni disponibili, che sono diramate da Reuters, pare che i dipendenti della Mela abbiano sostenuto un acceso dibattito con oltre 800 messaggi.

Seppur in passato sia già accaduto che vari dipendenti esprimessero preoccupazioni per precedenti cambiamenti sulle misure di sicurezza, questa volta la situazione sembra essere molto più significativa per estensione e per partecipazione. Tra alcuni dipendenti è circolata inoltre la preoccupazione che una mossa del genere possa in qualche modo compromettere la reputazione di Apple come paladina della privacy.

Apple ha comunque respinto l'idea che tale tecnologia possa essere impiegata per altri scopi. In un documento-FAQ pubblicato successivamente alla presentazione del sistema, la società afferma che negherà con fermezza qualsiasi richiesta del genere da parte dei governi:

"I governi potrebbero costringere Apple ad aggiungere immagini non CSAM (child sexual abuse material) all'elenco hash?

Apple rifiuterà queste richieste. La capacità di rilevamento CSAM di Apple è costruita esclusivamente per rilevare immagini CSAM note archiviate in iCloud Photos che sono state identificate da esperti del National Center for Missing and Exploited Children (NCMEC) e altri gruppi per la sicurezza dei bambini. Abbiamo già affrontato richieste per creare e implementare modifiche imposte dal governo che compromettono la privacy degli utenti e abbiamo fermamente rifiutato tali richieste. Continueremo a rifiutarle in futuro. Cerchiamo di essere chiari: questa tecnologia si limita a rilevare CSAM archiviato in iCloud e non accetteremo alcuna richiesta del governo di espanderla. Inoltre Apple conduce una revisione umana prima di inviare una segnalazione al NCMEC. Nel caso in cui il sistema segnali foto che non corrisponono a immagini CSAM note, l'account non verrà disattivato e nessuna segnalazione verrà inviata al NCMEC. "

Apple punta ad implementare il nuovo sistema all'interno di iOS 15 e iPadOS 15, che saranno rilasciati nel corso dell'autunno. Intanto una lettera aperta che critica la decisione di Apple, invitandola a ritornare sui suoi passi, ha già raccolto più di 7700 firme.

5 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
kamon13 Agosto 2021, 11:13 #1
...Ma in Cina non si sono messi a 90 con il governo pur di non guastare i rapporti commerciali con il paese? Cioè, la loro credibilità di paladini della tutela della privacy è ancora in piedi?
elgabro.13 Agosto 2021, 12:44 #2
le batterie degli iPhone andranno a farsi benedire con tutte queste scansioni.
Cfranco13 Agosto 2021, 12:47 #3
Apple rifiuterà queste richieste
Wow che rassicurazione ...
Peccato che loro non hanno il controllo sulle immagini del database, e se qualcuno ne aggiungesse qualcuna ?

Originariamente inviato da: kamon
...Ma in Cina non si sono messi a 90 con il governo pur di non guastare i rapporti commerciali con il paese?

Si vede che quelle richieste non hanno voluto rifiutarle
LMCH13 Agosto 2021, 14:13 #4
Originariamente inviato da: Cfranco
Apple rifiuterà queste richieste
Wow che rassicurazione ...
Peccato che loro non hanno il controllo sulle immagini del database, e se qualcuno ne aggiungesse qualcuna ?

Esatto, il database CSAM è accessibile solo al personale dell'NCMEC, in teoria Apple riceve solo gli hash/signature quindi non può sapere se ha a che fare con un falso positivo o con un immagine relativa ad altro inserita nel CSAM dal NCMEC per conto di qualche altra agenzia governativa.
Senza contare che per evitare rogne è altamente probabile che l'attività di verifica verrà affidata a terzi.
marcos16 Agosto 2021, 17:59 #5

Forse è la volta buona....

....che con questa storia della pedopornografia Apple si sputtani da sola e cominci il suo declino.
Detesto il fatto che sia così tanti anni che Apple viva solamente grazie al suo nome e basta.

Chi vivrà vedra ^_^ ghghghghghghghghghghghghghh

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^