Apple a difesa dei minori: ecco come funziona il sistema contro la pedopornografia che analizza le foto prima del caricamento su iCloud

Apple a difesa dei minori: ecco come funziona il sistema contro la pedopornografia che analizza le foto prima del caricamento su iCloud

La Mela illustra un sistema che consentirà di rilevare materiale pedopornografico e relativo ad abusi su minori all'interno di iPhone, iPad e Mac. Prevista la sperimentazione inizialmente negli USA

di pubblicata il , alle 11:02 nel canale Apple
Apple
 

Nel corso della giornata di ieri Apple ha confermato l'implementazione di nuove tecnologie all'interno di iOS, macOS, watchOS e iMessage per individuare contenuti (principalmente immagini) riguardanti abusi su minori (child sexual abuse material, o CSAM che utilizzeremo per comodità di seguito). La società ha illustrato i dettagli del piano che inizialmente sarà portato avanti solo nel mercato statunitense: i primi sistemi a sperimentarlo saranno le nuove versioni di iOS e iPadOS che verranno rese disponibili, come di consueto, nel corso dell'autunno.

Al centro di tutto vi è un meccanismo che effettua una scansione del dispositvo prima che venga eseguito il backup di un'immagine su iCloud. Secondo i dettagli che sono stati divulgati la scansione non verrebbe eseguita fino a quando non viene effettuato il backup di un file su iCloud. A questo punto il sistema invia una segnalazione di corrispondenza ad Apple solo se vengono riscontrati, per un' immagine, attributi crittografici presenti nel database del National Center for Missing and Exploited Children (NCMEC) e alle immagini caricate su iCloud Photos. Apple ha precisato che se la funzione iCloud Photos è disabilitata, il sistema non funziona.

Apple e l'analisi dei contenuti: un sistema incrociato per ridurre il numero di falsi positivi

Apple fa uso ormai da anni di sistemi di hash crittografici per effettuare la scansione di immagini di abusi su minori inviate tramite e-mail, in linea con ciò che accade con altri fornitori di posta elettronica che basano il servizio primencipalmente sul cloud. Lo stesso principio sarà ora applicato alle scansioni delle immagini che gli utenti archiviano in Foto su iCloud, anche se tali immagini non vengono condivise con nessuno.

La Mela ha sottolineato alcuni punti chiave di questo sistema:

-Apple non apprende nulla sulle immagini che non corrispondono al CSAM noto banca dati.
-Apple non può accedere ai metadati o ai derivati visivi per le immagini CSAM corrispondenti fino a quando non è stata superata una soglia di corrispondenze per un account iCloud Photos
-Il rischio che il sistema produca falsi positivi è estremamente basso.
-Apple esamina manualmente tutti i rapporti inviati al NCMEC per garantirne l'accuratezza.
-Gli utenti non possono accedere o visualizzare il database di immagini CSAM note
-Gli utenti non possono conoscere quali immagini siano state contrassegnate come CSAM dal sistema.

Il sistema, che Apple approfondisce ulteriormente in maniera tecnica con un documento specifico, sembra quindi essere architettato per prevenire e ridurre i rischi di segnalazioni non congrue: la sinergia tra la (presunta) accuratezza di rilevazione, la necessità di raggiungere una soglia (il che vuol dire che non vi dovrebbero essere segnalazioni per una eventuale singola immagine) e il controllo manuale dovrebbe garantire un tasso d'errore particolarmente basso. Quanto? Secondo la Mela questo sistema può consentire di scendere fino ad un falso avviso ogni mille miliardi all'anno. Apple si è rivolta a tre crittografi indipendenti per la valutazione del sistema, i quali lo hanno giudicato come matematicamente robusto.

Apple ha però comunicato che, via via con l'espansione del sistema, è possibile che vengano utilizzate come fonti aggiuntive per gli hash crittografici delle fotografie anche altri gruppi per la sicurezza dei bambini che non necessariamente potranno essere resi noti da Apple.

Tutto questo meccanismo fa parte di un nuovo sistema "Sicurezza dei Bambini" che la Mela sta introducendo nei suoi dispositivi. Oltre al sistema di analisi e segnalazione Apple ha aggiunto anche due nuove funzionalità per proteggere i giovani utenti di iPhone: l'app Messaggi può anch'essa eseguire la scansione sul dispositivo degli allegati per gli account dei minori, così da rilevare contenuti che potrebbero essere sessualmente espliciti. Una volta che viene individuato un contenuto a rischio, questo viene sfocato e il sistema mostra un avviso. Una seconda funzionalità permette ora ai genitori di abilitare sull'account iCloud famiglia una notifica che informa se il bambino visualizza un'immagine a rischio.

La Mela sta inoltre lavorando ad alcune modifiche a Siri e all'app di ricerca, in maniera tale da spiegare agli utenti che effettuano ricerche relative a contenuti CSAM che si tratta di un interesse dannoso e problematico, oltre a suggerire modalità per ottenere aiuto per questo problema.

Le critiche: strumenti di sorveglianza e censura

In generale il sistema ideato da Apple dovrebbe aumentare la probabilità di individuare persone che detengono o trafficano materiale pedopornografico, aiutando a proteggere i bambini. Ma, com'è inevitabile in questi casi, la decisione di Apple ha scatenato qualche critica: in particolare alcuni esperti di sicurezza e i sostenitori della privacy non vedono positivamente l'iniziativa della Mela.

Greg Nojeim, co-direttore del progetto Security & Surveillance del Center for Democracy & Technology, afferma che la Mela sta sostituendo il sistema di messaggistica crittografato end-to-end con uno "strumento per la sorveglianza e la censura" e che sarà vulnerabile ad "abusi ed intrusioni non solo negli USA ma in tutto il mondo".

Il professore di crittografia Matthew Green della Johns Hopkins University sottolinea invece il paradosso per cui per anni Apple ha resistito alle pressioni del governo circa l'installazione di una backdoor, e ora implementa un sistema di scansione che potrebbe rapidamente diventare un sistema di sorveglianza per il governo.

71 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Cfranco06 Agosto 2021, 11:33 #1
I "paladini della privacy" guardano tutte le vostre foto e segnalano quelle sospette alle autorità
pengfei06 Agosto 2021, 11:47 #2
Mi pare che Microsoft sia parecchio tempo che fa la stessa cosa per OneDrive
Axios200606 Agosto 2021, 11:59 #3
La Mela sta inoltre lavorando ad alcune modifiche a Siri e all'app di ricerca, in maniera tale da spiegare agli utenti che effettuano ricerche relative a contenuti CSAM che si tratta di un interesse dannoso e problematico, oltre a suggerire modalità per ottenere aiuto per questo problema.


Segnalazione ad FBI, NSA e ATF e si risolve il problema.
dontbeevil06 Agosto 2021, 12:16 #4
"what happens on your iphone stays on your iphone"***
DjLode06 Agosto 2021, 12:38 #5
Originariamente inviato da: pengfei
Mi pare che Microsoft sia parecchio tempo che fa la stessa cosa per OneDrive


Qui si insulta Apple, hai sbagliato thread.
enonno06 Agosto 2021, 13:18 #6
ma qui siamo completamente fuori...finche' si mettono foto sui social si sa che non sono piu' tue. Ma che un qualunque dipendente prob. di terze parti possa vedere il faslo positivo della figlia di qualcuno che fa il bagnetto e' una cosa pazzesca. Disabilitero' immediatamente il servizio Cloud di Apple.
blobb06 Agosto 2021, 13:37 #7
Originariamente inviato da: DjLode
Qui si insulta Apple, hai sbagliato thread.


bhe sto giro se li merita tutti gli insulti
DjLode06 Agosto 2021, 14:25 #8
Originariamente inviato da: enonno
ma qui siamo completamente fuori...finche' si mettono foto sui social si sa che non sono piu' tue. Ma che un qualunque dipendente prob. di terze parti possa vedere il faslo positivo della figlia di qualcuno che fa il bagnetto e' una cosa pazzesca. Disabilitero' immediatamente il servizio Cloud di Apple.


Qualcosa mi dice che manco lo hai o lo hai mai visto neanche in foto

Originariamente inviato da: blobb
bhe sto giro se li merita tutti gli insulti


Perchè?
blobb06 Agosto 2021, 14:33 #9
Originariamente inviato da: DjLode
Qualcosa mi dice che manco lo hai o lo hai mai visto neanche in foto



Perchè?


perchè cosa metto nel cloud sono fatti miei ed un privato non dovrebbe avere la possibilità di esaminare i miei file senza il mio consenso
DjLode06 Agosto 2021, 14:37 #10
Originariamente inviato da: blobb
perchè cosa metto nel cloud sono fatti miei ed un privato non dovrebbe avere la possibilità di esaminare i miei file senza il mio consenso


Infatti non esaminano i tuoi file, ma un hash del tuo file. Basta leggere la documentazione per capire cosa fanno, è anche linkata nell'articolo.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^